Responsabilità oggettiva e intelligenza artificiale: modelli di attribuzione

Definiti i soggetti che risponderanno per eventuali errori, bisogna richiamare in causa la Risoluzione del Parlamento Europeo del 2017. Questo intervento, tra i vari obiettivi, tenta di trovare una soluzione valida per sopperire al momentaneo gap normativo in tema da danno derivante dai sistemi di intelligenza artificiale.

Come accennato nel precedente articolo, procedere ad un’interpretazione evolutiva nella risoluzione delle singole fattispecie non appare una soluzione agevole. Pertanto, il Parlamento Europeo ha scisso la responsabilità del produttore circa il malfunzionamento dell’algoritmo, dalla responsabilità (strict liability del produttore) dei robot dotati di autonomia (assicurazione obbligatoria e fondo di risarcimento).

Strick liability da prodotto difettoso

In materia di responsabilità è intervenuta anche la Commissione Europea con una “relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità” (COM(2020)0064), al fine di garantire “che tutti i prodotti e servizi, compresi quelli che integrano le tecnologie digitali emergenti, funzionino in modo sicuro, affidabile e costante e che vi siano rimedi efficaci in caso di danni”; e di comprendere quali implicazioni giuridiche possono emergere in materia di responsabilità e sicurezza.

Mancando un’armonizzazione a livello nazionale ed europeo, attualmente il quadro normativo è composto da quattro direttive.

• La Direttiva 2006/42/CE (direttiva macchine), disciplina i requisiti di salute e sicurezza da rispettare in sede di progettazione e costruzione delle macchine al fine di essere commercializzate;

• La Direttiva 01/95/CE, sulla sicurezza generale dei prodotti immessi sul mercato e destinato al consumo;

• La Direttiva 99/44/CE, posta a tutela dei consumatori, disciplina i diritti e le garanzie ad essi spettanti in relazione ai prodotti suindicati.

•La direttiva 85/374/CEE, ha armonizzato la responsabilità del produttore per prodotti difettosi.

Ove i danni siano collegabili al difetto di fabbricazione, l’onere della prova, ai fini del risarcimento, sarà imputabile al danneggiato. Il quale dovrà dimostrare, in caso di danno fisico o materiale, il difetto e provare il nesso di causalità. Tuttavia, il produttore potrà, a sua volta, dimostrare che il danno non sia a lui imputabile in quanto quell’ errore era imprevedibile.

Quest’ultima soluzione rinviene la propria raison d’être in una normativa ad hoc che tenga conto di una serie di variabili scaturenti dall’utilizzo di questa tecnologia, e che siano rispondenti alla prima regola della robotica: “un robot non può recar danno a un essere umano, ne permettere che, a causa della propria negligenza, un essere umano patisca danno”. Considerando che le leggi di Asimov devono essere rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot (Risoluzione del Parlamento Europeo 2017), è fondamentale che – a prescindere dell’orientamento seguito in futuro – questa tecnologia e i potenziali diritti posti a tutela siano tesi al rispetto dei diritti fondamentali dell’uomo.

Gestione dei rischi

Un altro possibile modello da seguire è la disciplina della “gestione dei rischi”. In questo caso, il regime di responsabilità oggettiva applicata ai sistemi di IA tiene conto di colui che deve “minimizzare i rischi e ridurre l’impatto negativo”. Pertanto, la valutazione della responsabilità dovrà essere proporzionata all’effettivo livello di istruzioni impartite ai robot.[1]

Accanto a questo regime di responsabilità, sulla scia della Risoluzione del Parlamento Europeo, bisogna considerare la previsione:


• Di un’assicurazione obbligatoria. Si tratta di una tutela assicurativa che sia in grado sia di soddisfare la parte danneggiata – attraverso un sistema obbligatorio di assicurazione alimentato dalla ricchezza che l’IA produce nel corso della sua “esistenza” – ma anche di tutelare la società produttrice dell’IA, ove il danno non sia ad essa imputabile. Questa prospettiva appare più appetibile e sensata per quei sistemi che si avvalgono di IA autonoma dove l’incidenza umana, dopo le istruzioni iniziali, sono pressoché minime, se non azzerate. Pensiamo alle auto altamente computerizzate, come una Tesla;

• Di un fondo di risarcimento “generale” per tutti i sistemi di IA automatizzati o di un fondo “individuale” per ogni categoria di macchine intelligenti. Inoltre, i contributi potranno essere versati “una tantum” a seguito dell’immissione sul mercato dell’IA o “periodici” durante l’esistenza/utilizzazione del robot/macchina.

L’istituzione di questo fondo richiederà necessariamente l’intervento del Parlamento nella creazione di un “sistema di immatricolazione individuale”. Ogni macchina intelligente sarà dotata di un proprio numero di immatricolazione e iscritta in un apposito registro. Ai fini della trasparenza, questo consentirà di essere informati sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

In conclusione, appare logico orientarsi sulla gestione dei rischi. Il ricorso a questi strumenti, […] permetterebbero al produttore, programmatore, proprietario di godere di una responsabilità limitata[2] e allo stesso tempo il danneggiato soddisferà il suo diritto al risarcimento bypassando l’annosa difficoltà di individuare il soggetto a cui imputare la responsabilità. Tutto questo richiederà un intervento a livello europeo che disciplini interamente la materia; solo così l’innovazione tecnologia potrà continuare la sua ascesa. Diversamente la produzione e l’adozione dell’IA potrebbe subire una battuta d’arresto.


[1] E. Muri, La responsabilità ed il risarcimento del danno causato da algoritmo http://www.dirittodellinformatica.it/intelligenza-artificiale/la-responsabilita-ed-il-risarcimento-del-danno-causato-da-algoritmo.html

[2] Ibidem

Articolo a cura della Dott.ssa Angela Patalano