La Commissione vuole ridefinire le regole sulla responsabilità dei produttori per adeguarle al nuovo scenario che delineano algoritmi, robot e internet delle cose

Lo scorso 19 febbraio la Commissione europea ha pubblicato il suo white paper sull’intelligenza artificiale. Una strategia europea sullo sviluppo dell’intelligenza artificiale in Europa era atteso da tempo visto che fu annunciato come una priorità della nuova Commissione von der Leyen. Annesso a questo documento programmatico un altro passato sottotraccia ma altrettanto cruciale, un report sulle implicazioni nel campo della sicurezza e della responsabilità civile dell’intelligenza artificiale, della robotica e dell’internet delle cose (Iot, internet of things).
Da tempo ci si chiede con chi se la potrà prendere la vittima di un incidente causato da un taxi senza conducente? Su chi si rifarà la compagnia di taxi, l’azienda che ha prodotto la macchina o quella che ha fornito il software l’intelligenza artificiale? C’è da capire dunque se le attuali regole in campo di responsabilità e sicurezza dei prodotti siano in grado di adattarsi all’evoluzione tecnologica che stiamo vivendo o se necessitino di essere, se non riscritte, almeno aggiornate. La presenza di regole chiare è di primaria importanza per assicurare che tanto i cittadini quanto le imprese non abbiano timore di abbracciare appieno l’innovazione tecnologica.
Le criticità da gestire sono tante e diverse. Da un lato l’opacità delle decisioni prese dall’intelligenza artificiale e la mancanza di trasparenza degli algoritmi che la regolano rendono difficile capire come prevenire potenziali decisioni nocive. Dall’altro il problema della cybersicurezza che mai come ora sarà un investimento centrale visto che sempre più dispositivi saranno connessi e dialogheranno tra loro costantemente.
Tuttavia non bisogna dimenticare che l’ingresso dell’intelligenza artificiale nel processo produttivo porterà anche benefici alla sicurezza dei prodotti e dei servizi grazie alla possibilità di poter analizzare e sfruttare grandi quantità di dati sulle loro performance. Gli stessi veicoli autonomi, connessi tra loro, porteranno a una riduzione degli incidenti in larga parte causati da distrazioni ed errori umani. Se già oggi Tesla aggiorna i software delle sue auto come fossero smartphone, lo stesso si farà per tutti gli altri prodotti connessi senza dover passare dal rivenditore, ma comodamente da casa.
Nuovi modi di guardare alla sicurezza
L’Unione europea già offre una serie di norme che hanno uniformato gli standard di qualità dei beni di consumo. C’è la Direttiva del 2001 sulla Sicurezza generale dei prodotti che assicura che i beni che circolano nel mercato europeo siano sicuri, non nocivi per la salute e l’ambiente. Ci sono poi regole speciali per il settore dell’automobile e dei trasporti, per quello degli strumenti medici che già tengono conto dell’integrazione tecnologica al loro interno.
Come dicevamo l’autonomia che caratterizza le decisioni dell’intelligenza artificiale può sollevare non poche problematiche in termini di responsabilità. La regola generale vuole che il produttore tenga conto del rischio che il prodotto può arrecare nel suo intero ciclo vita e avverta adeguatamente il consumatore. Con l’intelligenza artificiale, che è qualcosa di dinamico, visto che impara costantemente, questo calcolo del rischio andrà fatto durante l’intero ciclo vita del prodotto. Per questo sarà fondamentale che il controllo umano sia sempre vigile per prevenire effetti indesiderati e imprevisti.
Altro tipo di nuovi rischi saranno quelli legati alla salute mentale di chi interagisce con device o robot che integrano l’intelligenza artificiale. Si è pensato all’impatto nel lungo periodo sulla salute mentale di chi usa costantemente Alexa, Google Assistant o Siri? E alla differenza di tale impatto sui più piccoli e gli anziani?
Ulteriori problemi nascono con l’interconnessione di oggetti intelligenti o anche solo con l’integrazione dell’intelligenza artificiale in altri prodotti. In questo caso la valutazione del rischio deve tenere in considerazione anche l’interazione plausibile che la smart things avranno tra loro. Nel settore del trasporto viene valutato sia il rischio per ogni singolo componente che per il prodotto finale oltre all’interazione del prodotto nel sistema trasporto più ampio.
Se l’aggiornamento del software è tale da modificare il prodotto sostanzialmente, sarà necessaria una nuova valutazione del rischio. Tesla, per esempio, con un aggiornamento ha permesso che l’auto raggiunga i 100 chilometri orari in minor tempo. Questo potrebbe comportare un ricalcolo dell’impatto del rischio per gli utenti. Da ultimo, con integrazioni sempre più complesse in vista, il principio per cui il produttore che mette il prodotto sul mercato è il responsabile per l’intera catena resta solido ma potrebbe necessitare di aggiornamenti e revisioni.
La responsabilità dell’intelligenza artificiale
Torniamo all’esempio dell’incidente d’auto. Oggi il proprietario dell’auto deve per legge munirsi di un’assicurazione, mentre l’obbligo non vale per il produttore. In un futuro di auto autonome quindi questa situazione potrebbe non cambiare. Ma se l’introduzione dell’intelligenza artificiale rendesse più difficile capire chi è il responsabile ultimo su cui rifarsi, le assicurazioni potrebbero essere meno propense a stipulare certe polizze con un impatto conseguente sull’adozione di queste tecnologie. Per questo è fondamentale che sia sempre individuabile un responsabile legale.
Il report evidenzia come la complessità tecnologica di questi dispositivi potrebbe rendere troppo oneroso per il consumatore dover provare la fallacia del prodotto. Per questo una proposta al vaglio è invertire l’onere della prova: se il produttore non ha rispettato delle prescrizioni in materia di sicurezza, allora il prodotto si considera difettoso salvo prova contraria.
Per quanto riguarda la cybersicurezza, se da un lato chi fornisce il software non può prevedere tutte le falle passibili di attacco ma ha il dovere di provvedere ad aggiornarlo per mantenerlo sicuro, in futuro potrebbe prevedersi un alleggerimento della responsabilità se l’utente non avrà provveduto all’aggiornamento. Questo vuol dire che competenze minime, come la capacità di aggiornare telefoni, tablet e laptop e le rispettive applicazioni, saranno sempre più necessarie in futuro.
Da ultimo il problema della poca trasparenza nelle decisioni degli algoritmi. La Commissione sta cercando di capire se sia opportuno applicare ai fornitori di soluzioni di intelligenza artificiale il principio della responsabilità oggettiva, come previsto per i proprietari d’auto in caso d’incidente o per chi svolge attività pericolose come la gestione di una centrale nucleare. In quel caso l’onere della prova è invertito a favore della vittima, visto che il fornitore potrebbe non voler mostrare i dati che possano dimostrarne la responsabilità. A ciò infine si potrebbe anche aggiungere l’obbligo di stipulare una assicurazione come previsto per gli autoveicoli. Vedremo nelle prossime settimane se e in che modo la Commissione terrà conto dei suggerimenti arrivati dalla società civile e dagli altri stakeholder.
Leggi anche
