0

Chi è il responsabile di un danno cagionato da un’ intelligenza artificiale?

Alle soglie della quarta rivoluzione industriale, il ruolo dell‘intelligenza artificiale (IA) nel medio lungo termine sarà sempre più preponderante, con una conseguente difficile delimitazione del confine tra uomo e macchina.
L’obiettivo è quello di ridurre le tempistiche di produzione accrescendone la qualità attraverso la minimizzazione dell’errore. Ragion per cui la spinta verso una regolamentazione uniforme è diventata improcrastinabile.

Abbiamo già sviluppato alcuni aspetti in merito all’impatto dell’IA sul diritto d’autore, e di come questo diritto, data la natura personalistica, porti ad escludere la tutela per le opere generate dall’IA, prediligendo, invece, una disciplina ad hoc, come i diritti sui generis.
Abbiamo seguito il dibattito del Parlamento Europeo e analizzato la proposta avanzata dallo stesso in una Risoluzione del 2017; un documento nel quale si ipotizzava l’attribuzione all’IA di una personalità elettronica. Si è infatti constatato, in via interpretativa, che la ratio sottesa a tale scelta riguardi l’uomo e non la macchina, garantendo il bilanciamento e al contempo il rispetto dei diritti fondamentali dell’uomo.

Un’altra questione fondamentale riguarda il regime della responsabilità civile per i danni causati dall’IA, per la quale il Parlamento ritiene che sia necessario un intervento legislativo che vada a colmare il gap normativo in materia. Questo potenziale strumento dovrà poggiare su alcuni principi che si riflettono sulla non limitazione:

• Della tipologia e dell’entità del danno risarcibile;
• Del risarcimento del danno provocato dall’IA.

Questa prospettiva ha condotto ad una scissione in dottrina sia a livello nazionale che sovranazionale. Da un lato, vi è chi incentiva la configurazione di profili di responsabilità in capo ai sistemi di IA; dall’altro, i rappresentanti delle Istituzioni e altra parte della dottrina hanno respinto una tale previsione in quanto troppo futurista e soprattutto necessaria di una propedeutica definizione della questione sia da un punto di vista etico che morale. Tale esigenza ha trovato risposta nella proposta avanzata nella Risoluzione del 2017, ossia nella realizzazione di un codice etico-deontologico nel settore dell’IA.

Appare lecito chiedersi, ove la fattispecie lesiva si configuri, a carico di chi debba essere imputata la responsabilità e l’eventuale risarcimento del danno. 

Per chiarire questo aspetto dobbiamo considerare che allo stato attuale gli errori possono essere generati da due tipi di IA:

• Quella governata dall’uomo: la macchina usa un modello stabilito dal programmatore. In questo caso la problematica è di facile soluzione in quanto, questa tecnologia, è considerata solo uno strumento e non un agente. Pertanto, la responsabilità ricadrebbe su tutti coloro che hanno contribuito alla sua produzione. In questo caso si richiederebbe “una semplice prova del danno avvenuto e l’individuazione del nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte lesa; [1]

• Quella implementata sulla tecnologia machine learning e deep learning: parliamo di un’intelligenza artificiale altamente automatizzata per cui, l’accertamento del danno conseguente all’errore dovrebbe essere sottoposto ad una disciplina ad hoc che integri o sostituisca la disciplina della responsabilità per danno da prodotto difettoso.

Le implicazioni giuridiche emergono proprio in ragione di quest’ultima ipotesi. Infatti, alla luce di un’IA automatizzata, le relazioni contrattuali andranno analizzate in un’ottica completamente diversa. Prima di tutto i fattori da valutare non saranno più soggettivi (la diligenza del buon padre di famiglia, la stanchezza, la precisione…), ma oggettivi. La prestazione contrattuale che vede coinvolta IA, infatti, è sempre “perfetta”. Ad un danno corrisponde uno specifico errore, ad esempio l’errata configurazione o ancora, ad uno specifico input corrisponde uno specifico output. Se questo dovesse discostarsi dal risultato atteso provocherebbe un danno economico.

Definiti i soggetti che risponderanno per eventuali errori, bisogna richiamare in causa la Risoluzione del Parlamento Europeo del 2017. Questo
Come abbiamo già detto nel precedente articolo, attualmente l’Intelligenza Artificiale è uno strumento al pari di una macchina da presa
L’intelligenza artificiale (dall'inglese Artificial Intelligence, di seguito AI) – nel porre nuove sfide in quei settori in cui l’intelletto (ingegno)

Soggetti potenzialmente coinvolti

  1. Società produttrice dell’AI

Le aziende stanno investendo enormi quantità di denaro e manodopera nello sviluppo, nell’istruzione e nella manutenzione dei sistemi di IA. A fronte di questo cospicuo investimento, che prevede anche la collaborazione di professionisti atti a minimizzare l’errore, eventuali danni fanno emergere la responsabilità civile da prodotto difettoso. Pensiamo al caso dell’investitore di Hong Kong che aveva affidato la gestione delle proprie attività in Borsa a un sistema di intelligenza artificiale, che apparentemente gli ha comportato perdite pari a 20 milioni di dollari in un solo giorno. In questo caso l’investitore ha agito giudizialmente nei confronti della società di investimenti che aveva adottato il sistema di Ai[2].

  • 2. Programmatore

Considerato la mente dietro l’algoritmo, il programmatore è colui che istruisce la macchina, governando completamente l’output. Tuttavia, oggi, i sistemi IA sono sempre più autonomi a tal punto che difficilmente il programmatore riuscirà a prevedere la realizzazione di un determinato output. Questa relazione tra autonomia dell’IA e programmatore, in termini di responsabilità, è ben riassunta al punto 56 della Risoluzione. Per cui: “quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore. [3] Dunque, un eventuale danno dovrà essere valutato in relazione all’istruzione ricevuta, tenendo conto di quanto questa abbia inciso sulla configurazione del danno stesso.

A fronte di un danno, i soggetti coinvolti – il produttore e il programmatore – potrebbero argomentare che al momento della produzione dell’IA il danno scaturente dall’errore era imprevedibile, configurandosi solo successivamente in fase di istruzione da parte dell’utilizzatore. Questa conclusione aumenta l’incertezza giuridica con un conseguente stallo nella risoluzione della questione. Infatti, in assenza di un’adeguata ed uniforme legislazione, l’autorità competente non avrà altra scelta che ricorre ai principi normativi di responsabilità per danni conseguenti all’uso di sistemi di intelligenza artificiale. Tuttavia, ciò determinerebbe l’adozione di un’interpretazione evolutiva (forzata) della normativa in materia. Il gap potrebbe essere dunque colmato con l’adozione di modelli di responsabilità che si conformino alle esigenze del caso, come vedremo nel prossimo articolo.


[1] AA.VV. Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di F. Pizzetti, Giappichelli Editore, Torino 2018

[2] G. Coraggio, Chi paga se rompe il robot?https://www.wired.it/economia/business/2020/02/05/robot-responsabilita-civile/

[3] L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale: Sfide etiche al diritto, Edizioni Studium S.r.l. 2020

Articolo a cura della Dott.ssa Angela Patalano

Lascia un commento