www.difesadautore.it
0

La due diligence nella valutazione del Portafoglio IP

La Proprietà Intellettuale rappresenta sempre più una risorsa strategica per la crescita economica di un’azienda.
Questa circostanza confermata dalla presenza di società – Google, Amazon, Facebook e E-Bay – con sistemi gestionali/organizzativi completamente dipendenti dall’ IP e dai nuovi modelli di business.
Per questa ragione è importante determinare il valore economico del Portafoglio IP, soprattutto nel caso in cui si renda necessario attivare un’operazione straordinaria, quale l’acquisizione d’azienda o un ramo d’azienda.

Questo processo viene svolto attraverso l’attività di Due Diligence seguito poi da un esame tecnico-legale teso a valutarne i risultati e individuare la consistenza del portafoglio stesso.

Che cosa si intende per Due Diligence?

La Due Diligence è un concetto che deriva dal diritto privato e commerciale americano. Traducibile come “dovuta diligenza”, si intende un’attività di indagine e informazione che può svolgersi in vari stadi di un processo investigativo.

Con riguardo alla vendita, cessione o licenza di un determinato asset dell’IP, o in caso di fusione, acquisizione che riguardino diritti di proprietà industriale sicuramente è consigliata la Due Diligence precontrattuale.
La ratio sottesa a questa procedura “investigativa” è quella di reperire informazioni di natura legale, patrimoniale, finanziaria ed economica dell’intera compagine societaria al fine di verificare la fattibilità e la convenienza di un determinato investimento.

Cosa verificare in caso di acquisizione?

L’attenzione va posta principalmente sull’analisi della situazione brevettuale e dei marchi. Così, nel caso si tratti di brevetti [1], si dovrà verificare:

  • la titolarità effettiva del brevetto;
  • la durata massima e la possibilità di rinnovo, la scadenza e la corretta gestione dei rinnovi e dei pagamenti delle tasse di manutenzione;
  • la sussistenza dei requisiti di validità del brevetto, cioè la novità e l’attività inventiva;
  • l’effettiva attuazione dei brevetti;
  • l’esistenza o meno di vertenze relative al brevetto, lo stato delle vertenze ed il verosimile esito delle stesse;
  • l’esistenza di contratti legati al brevetto e i dettagli degli stessi, tra cui la durata, l’eventuale presenza di contenziosi con la controparte contrattuale e il ritorno economico derivante dall’operazione;
  • le eventuali licenze, ovvero ai modelli industriali di cui il target faccia uso, verificando se tale utilizzo sia consentito, ed in caso affermativo, se ciò avvenga in quanto il target ne sia titolare esclusivo ovvero in virtù di contratti di licenza d’uso.

Per quanto riguarda i marchi, si dovrà verificare:

  • l’esistenza o meno di un titolo di privativa (marchio registrato), poiché il cedente potrebbe utilizzare il proprio segno senza averlo registrato (marchio di fatto);
  • la titolarità effettiva del marchio;
  • la durata, la scadenza e la corretta effettuazione dei rinnovi;
  • l’effettivo utilizzo del marchio, al fine di scongiurare ipotesi di decadenza del segno stesso;
  • il corretto utilizzo del marchio, cioè con una modalità idonea ad evitare fenomeni di perdita della capacità distintiva o volgarizzazione del segno;
  • l’esistenza o meno di segni distintivi potenzialmente in conflitto con quello oggetto di Due Diligence;
  • l’esistenza o meno di vertenze relative al marchio, lo stato delle vertenze ed il verosimile esito delle medesime;

Interessante è la crescita dell’attenzione da parte delle aziende leader copyright-based per i pacchetti dei diritti autoriali. Interesse che ha giustificato la necessità di procedere alla loro valutazione economica al fine di massimizzarne il valore.

Conclusione

In questa fase di pre-acquisition, la Due Diligence rappresenta il pilastro per la redazione degli accordi di acquisizione (cd. sale and purchase agreement) al fine di giungere al perfezionamento delle operazioni e garantire all’acquirente l’effettivo trasferimento dell’azienda o di un ramo di essa priva di pendenze e rischi che non siano evidenti.

[1] P. Broccoli, la due diligence dei diritti IP https://www.sviluppoeinnovazione.it/la-due-diligence-dei-diritti-ip/

0

Responsabilità oggettiva e intelligenza artificiale: modelli di attribuzione

Definiti i soggetti che risponderanno per eventuali errori, bisogna richiamare in causa la Risoluzione del Parlamento Europeo del 2017. Questo intervento, tra i vari obiettivi, tenta di trovare una soluzione valida per sopperire al momentaneo gap normativo in tema da danno derivante dai sistemi di intelligenza artificiale.

Come accennato nel precedente articolo, procedere ad un’interpretazione evolutiva nella risoluzione delle singole fattispecie non appare una soluzione agevole. Pertanto, il Parlamento Europeo ha scisso la responsabilità del produttore circa il malfunzionamento dell’algoritmo, dalla responsabilità (strict liability del produttore) dei robot dotati di autonomia (assicurazione obbligatoria e fondo di risarcimento).

Strick liability da prodotto difettoso

In materia di responsabilità è intervenuta anche la Commissione Europea con una “relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità” (COM(2020)0064), al fine di garantire “che tutti i prodotti e servizi, compresi quelli che integrano le tecnologie digitali emergenti, funzionino in modo sicuro, affidabile e costante e che vi siano rimedi efficaci in caso di danni”; e di comprendere quali implicazioni giuridiche possono emergere in materia di responsabilità e sicurezza.

Mancando un’armonizzazione a livello nazionale ed europeo, attualmente il quadro normativo è composto da quattro direttive.

• La Direttiva 2006/42/CE (direttiva macchine), disciplina i requisiti di salute e sicurezza da rispettare in sede di progettazione e costruzione delle macchine al fine di essere commercializzate;

• La Direttiva 01/95/CE, sulla sicurezza generale dei prodotti immessi sul mercato e destinato al consumo;

• La Direttiva 99/44/CE, posta a tutela dei consumatori, disciplina i diritti e le garanzie ad essi spettanti in relazione ai prodotti suindicati.

•La direttiva 85/374/CEE, ha armonizzato la responsabilità del produttore per prodotti difettosi.

Ove i danni siano collegabili al difetto di fabbricazione, l’onere della prova, ai fini del risarcimento, sarà imputabile al danneggiato. Il quale dovrà dimostrare, in caso di danno fisico o materiale, il difetto e provare il nesso di causalità. Tuttavia, il produttore potrà, a sua volta, dimostrare che il danno non sia a lui imputabile in quanto quell’ errore era imprevedibile.

Quest’ultima soluzione rinviene la propria raison d’être in una normativa ad hoc che tenga conto di una serie di variabili scaturenti dall’utilizzo di questa tecnologia, e che siano rispondenti alla prima regola della robotica: “un robot non può recar danno a un essere umano, ne permettere che, a causa della propria negligenza, un essere umano patisca danno”. Considerando che le leggi di Asimov devono essere rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot (Risoluzione del Parlamento Europeo 2017), è fondamentale che – a prescindere dell’orientamento seguito in futuro – questa tecnologia e i potenziali diritti posti a tutela siano tesi al rispetto dei diritti fondamentali dell’uomo.

Gestione dei rischi

Un altro possibile modello da seguire è la disciplina della “gestione dei rischi”. In questo caso, il regime di responsabilità oggettiva applicata ai sistemi di IA tiene conto di colui che deve “minimizzare i rischi e ridurre l’impatto negativo”. Pertanto, la valutazione della responsabilità dovrà essere proporzionata all’effettivo livello di istruzioni impartite ai robot.[1]

Accanto a questo regime di responsabilità, sulla scia della Risoluzione del Parlamento Europeo, bisogna considerare la previsione:


• Di un’assicurazione obbligatoria. Si tratta di una tutela assicurativa che sia in grado sia di soddisfare la parte danneggiata – attraverso un sistema obbligatorio di assicurazione alimentato dalla ricchezza che l’IA produce nel corso della sua “esistenza” – ma anche di tutelare la società produttrice dell’IA, ove il danno non sia ad essa imputabile. Questa prospettiva appare più appetibile e sensata per quei sistemi che si avvalgono di IA autonoma dove l’incidenza umana, dopo le istruzioni iniziali, sono pressoché minime, se non azzerate. Pensiamo alle auto altamente computerizzate, come una Tesla;

• Di un fondo di risarcimento “generale” per tutti i sistemi di IA automatizzati o di un fondo “individuale” per ogni categoria di macchine intelligenti. Inoltre, i contributi potranno essere versati “una tantum” a seguito dell’immissione sul mercato dell’IA o “periodici” durante l’esistenza/utilizzazione del robot/macchina.

L’istituzione di questo fondo richiederà necessariamente l’intervento del Parlamento nella creazione di un “sistema di immatricolazione individuale”. Ogni macchina intelligente sarà dotata di un proprio numero di immatricolazione e iscritta in un apposito registro. Ai fini della trasparenza, questo consentirà di essere informati sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

In conclusione, appare logico orientarsi sulla gestione dei rischi. Il ricorso a questi strumenti, […] permetterebbero al produttore, programmatore, proprietario di godere di una responsabilità limitata[2] e allo stesso tempo il danneggiato soddisferà il suo diritto al risarcimento bypassando l’annosa difficoltà di individuare il soggetto a cui imputare la responsabilità. Tutto questo richiederà un intervento a livello europeo che disciplini interamente la materia; solo così l’innovazione tecnologia potrà continuare la sua ascesa. Diversamente la produzione e l’adozione dell’IA potrebbe subire una battuta d’arresto.


[1] E. Muri, La responsabilità ed il risarcimento del danno causato da algoritmo http://www.dirittodellinformatica.it/intelligenza-artificiale/la-responsabilita-ed-il-risarcimento-del-danno-causato-da-algoritmo.html

[2] Ibidem

Articolo a cura della Dott.ssa Angela Patalano

0

Chi è il responsabile di un danno cagionato da un’ intelligenza artificiale?

Alle soglie della quarta rivoluzione industriale, il ruolo dell‘intelligenza artificiale (IA) nel medio lungo termine sarà sempre più preponderante, con una conseguente difficile delimitazione del confine tra uomo e macchina.
L’obiettivo è quello di ridurre le tempistiche di produzione accrescendone la qualità attraverso la minimizzazione dell’errore. Ragion per cui la spinta verso una regolamentazione uniforme è diventata improcrastinabile.

Abbiamo già sviluppato alcuni aspetti in merito all’impatto dell’IA sul diritto d’autore, e di come questo diritto, data la natura personalistica, porti ad escludere la tutela per le opere generate dall’IA, prediligendo, invece, una disciplina ad hoc, come i diritti sui generis.
Abbiamo seguito il dibattito del Parlamento Europeo e analizzato la proposta avanzata dallo stesso in una Risoluzione del 2017; un documento nel quale si ipotizzava l’attribuzione all’IA di una personalità elettronica. Si è infatti constatato, in via interpretativa, che la ratio sottesa a tale scelta riguardi l’uomo e non la macchina, garantendo il bilanciamento e al contempo il rispetto dei diritti fondamentali dell’uomo.

Un’altra questione fondamentale riguarda il regime della responsabilità civile per i danni causati dall’IA, per la quale il Parlamento ritiene che sia necessario un intervento legislativo che vada a colmare il gap normativo in materia. Questo potenziale strumento dovrà poggiare su alcuni principi che si riflettono sulla non limitazione:

• Della tipologia e dell’entità del danno risarcibile;
• Del risarcimento del danno provocato dall’IA.

Questa prospettiva ha condotto ad una scissione in dottrina sia a livello nazionale che sovranazionale. Da un lato, vi è chi incentiva la configurazione di profili di responsabilità in capo ai sistemi di IA; dall’altro, i rappresentanti delle Istituzioni e altra parte della dottrina hanno respinto una tale previsione in quanto troppo futurista e soprattutto necessaria di una propedeutica definizione della questione sia da un punto di vista etico che morale. Tale esigenza ha trovato risposta nella proposta avanzata nella Risoluzione del 2017, ossia nella realizzazione di un codice etico-deontologico nel settore dell’IA.

Appare lecito chiedersi, ove la fattispecie lesiva si configuri, a carico di chi debba essere imputata la responsabilità e l’eventuale risarcimento del danno. 

Per chiarire questo aspetto dobbiamo considerare che allo stato attuale gli errori possono essere generati da due tipi di IA:

• Quella governata dall’uomo: la macchina usa un modello stabilito dal programmatore. In questo caso la problematica è di facile soluzione in quanto, questa tecnologia, è considerata solo uno strumento e non un agente. Pertanto, la responsabilità ricadrebbe su tutti coloro che hanno contribuito alla sua produzione. In questo caso si richiederebbe “una semplice prova del danno avvenuto e l’individuazione del nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte lesa; [1]

• Quella implementata sulla tecnologia machine learning e deep learning: parliamo di un’intelligenza artificiale altamente automatizzata per cui, l’accertamento del danno conseguente all’errore dovrebbe essere sottoposto ad una disciplina ad hoc che integri o sostituisca la disciplina della responsabilità per danno da prodotto difettoso.

Le implicazioni giuridiche emergono proprio in ragione di quest’ultima ipotesi. Infatti, alla luce di un’IA automatizzata, le relazioni contrattuali andranno analizzate in un’ottica completamente diversa. Prima di tutto i fattori da valutare non saranno più soggettivi (la diligenza del buon padre di famiglia, la stanchezza, la precisione…), ma oggettivi. La prestazione contrattuale che vede coinvolta IA, infatti, è sempre “perfetta”. Ad un danno corrisponde uno specifico errore, ad esempio l’errata configurazione o ancora, ad uno specifico input corrisponde uno specifico output. Se questo dovesse discostarsi dal risultato atteso provocherebbe un danno economico.

[post_grid id=’913′]

Soggetti potenzialmente coinvolti

  1. Società produttrice dell’AI

Le aziende stanno investendo enormi quantità di denaro e manodopera nello sviluppo, nell’istruzione e nella manutenzione dei sistemi di IA. A fronte di questo cospicuo investimento, che prevede anche la collaborazione di professionisti atti a minimizzare l’errore, eventuali danni fanno emergere la responsabilità civile da prodotto difettoso. Pensiamo al caso dell’investitore di Hong Kong che aveva affidato la gestione delle proprie attività in Borsa a un sistema di intelligenza artificiale, che apparentemente gli ha comportato perdite pari a 20 milioni di dollari in un solo giorno. In questo caso l’investitore ha agito giudizialmente nei confronti della società di investimenti che aveva adottato il sistema di Ai[2].

  • 2. Programmatore

Considerato la mente dietro l’algoritmo, il programmatore è colui che istruisce la macchina, governando completamente l’output. Tuttavia, oggi, i sistemi IA sono sempre più autonomi a tal punto che difficilmente il programmatore riuscirà a prevedere la realizzazione di un determinato output. Questa relazione tra autonomia dell’IA e programmatore, in termini di responsabilità, è ben riassunta al punto 56 della Risoluzione. Per cui: “quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore. [3] Dunque, un eventuale danno dovrà essere valutato in relazione all’istruzione ricevuta, tenendo conto di quanto questa abbia inciso sulla configurazione del danno stesso.

A fronte di un danno, i soggetti coinvolti – il produttore e il programmatore – potrebbero argomentare che al momento della produzione dell’IA il danno scaturente dall’errore era imprevedibile, configurandosi solo successivamente in fase di istruzione da parte dell’utilizzatore. Questa conclusione aumenta l’incertezza giuridica con un conseguente stallo nella risoluzione della questione. Infatti, in assenza di un’adeguata ed uniforme legislazione, l’autorità competente non avrà altra scelta che ricorre ai principi normativi di responsabilità per danni conseguenti all’uso di sistemi di intelligenza artificiale. Tuttavia, ciò determinerebbe l’adozione di un’interpretazione evolutiva (forzata) della normativa in materia. Il gap potrebbe essere dunque colmato con l’adozione di modelli di responsabilità che si conformino alle esigenze del caso, come vedremo nel prossimo articolo.


[1] AA.VV. Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di F. Pizzetti, Giappichelli Editore, Torino 2018

[2] G. Coraggio, Chi paga se rompe il robot?https://www.wired.it/economia/business/2020/02/05/robot-responsabilita-civile/

[3] L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale: Sfide etiche al diritto, Edizioni Studium S.r.l. 2020

Articolo a cura della Dott.ssa Angela Patalano

0

Intelligenza Artificiale e personalità giuridica: implicazioni e dibattiti

Come abbiamo già detto nel precedente articolo, attualmente l’Intelligenza Artificiale è uno strumento al pari di una macchina da presa o una macchina fotografica. Questa visione statica sta lasciando il posto ad una dinamicità rappresentata da un sempre più massiccio uso di questa tecnologia nell’ambito dell’industria creativa (opere d’arte, musica, cinema ecc.).

In conseguenza del crescente grado di autonomia acquisito dalle macchine dotate di IA – grazie al Machine Learning e al lavoro di esperti che nel perfezionamento del “cervello elettronico” stanno rendendo possibile una maggiore rispondenza con  quello umano –  sono sempre più frequenti i dibattiti in tema di personalità giuridica.

Sebbene risulti difficile accettare che una macchina possa ottenere un tale riconoscimento, bisogna ammettere che siamo alle soglie di una quarta rivoluzione industriale e questa porterà con sé, come già è accaduto in passato, importanti cambiamenti. La stessa Commissione Europea nel maggio del 2018 ha ammesso che le macchine sono e saranno sempre più interconnesse, autonome e ‘capaci di pensare’. Ed è proprio quest’ultima attitudine che forse consentirà, nella tutela delle opere create dall’IA, di fare un ulteriore passo avanti.

Seguendo la linea di alcuni studiosi, l’unica forma di personalità giuridica che l’UE dovrebbe conferire alle macchine dotate di IA è quella che viene riconosciuta alle aziende. Tuttavia, un modello giuridico simile più che riconoscere diritti a un non umano, mirerebbe ad associarli a questi soggetti in termini di responsabilità, ove emergano problemi/danni. Interessante, in tal senso, è la mozione della deputata lussemburghese al Parlamento Europeo, Mady Delvaux, la quale ha presentato una proposta per l’adozione di un sistema normativo comune nel settore della robotica che mira al riconoscimento della personalità giuridica dei robot, della loro responsabilità civile verso terzi e dell’obbligo di versamenti previdenziali per il lavoro svolto [1].

Se da un lato abbiamo coloro che spingo verso una personalità “elettronica”, dall’altro vi è chi vi si oppone. Come sostenuto da Noel Sharkey – professore emerito di intelligenza artificiale e robotica all’Università di Sheffield – in merito alla posizione del Parlamento europeo, questo riconoscimento è un “modo subdolo dei produttori di scappare dalle loro responsabilità” per le azioni commesse dalle loro macchine. Infatti, ad avviso di chi scrive, sembrerebbe irreale che una macchina possa pagare per i danni commessi, forse seguendo la linea di pensiero di alcuni esperti e attraverso la guida delle Risoluzioni della Commisione forse non appare cosi impossibile.

Si può parlare di personalità giuridica elettronica?

Alla luce di quanto esposto, si comprende come la personalità elettronica richiesta dai sostenitori all’interno del Parlamento Europeo abbia ancora molta strada da percorrere. Si dovrà tener conto delle questioni relative alla responsabilità del produttore, dell’utilizzatore, del programmatore, e al nesso di causalità ed eventuali responsabilità concorrenti, di cui parleremo in seguito. Bisognerà comprendere la ratio della risoluzione e dei vari interventi in materia per comprendere che forse la resistenza verso questa attribuzione deriva da una cattiva interpretazione.

In una società sempre più basata sul rapporto tra IA e uomo, serve prima di tutto un intervento di natura etica che faccia da apripista ai successivi interventi giuridici in materia.
Inoltre, l’assenza di un’interazione consapevole e cosciente da parte dell’uomo inevitabilmente induce a chiederci a chi sia ascrivibile la responsabilità per gli eventuali danni conseguenti. Si ritiene che il riconoscimento di una personalità elettronica sia ancora ben lontana, essendo diversi gli interessi in gioco e soprattutto dovendo ben definire, in termini giuridici, la questione della responsabilità.

[1] A. Valeriani, Diritto e intelligenza artificiale dei robot: verso una rivoluzione giuridica?


Articolo a cura della Dott.ssa Angela Patalano

0

Artificial Intelligence as Artist: un nuovo paradigma per il diritto d’autore cinematografico?

L’intelligenza artificiale (dall’inglese Artificial Intelligence, di seguito AI) – nel porre nuove sfide in quei settori in cui l’intelletto (ingegno) umano è la  conditio sine qua non un’opera non sarebbe altrimenti tutelabile – ha aperto la strada a nuovi paradigmi sociali, organizzativi e lavorativi.

Un hot topic che porta con se implicazioni tanto di natura etica quanto legale. Numerose sono infatti le problematiche che stanno emergendo dal suo diffuso utilizzo.

Autorialità: la creatività simulata dall’intelligenza artificiale può essere tutelata?

Una delle questio su cui ampiamente si sta dibattendo riguarda l’autorialità sulle opere create dall’AI: ci si chiede se sia possibile tutelarle al pari di quelle umane.
A fronte del silenzio normativo causato dall’assenza – sia nelle leggi nazionali sul diritto d’autore o Copyright (per i sistemi di Common Law) che per la normativa internazionale – di una dettaglia definizione di autorialità, la giurisprudenza nazionale e sovranazionale è intervenuta affermando, in numerose sentenze, che la creatività e l’originalità dell’opera riviene la propria ragion d’essere nell’ingegno dell’essere umano. A tal riguardo, con la sentenza Infopaq C-05/08 CGE, la Corte ha statuito che l’opera è tutelata quale “risultato della creazione intellettuale dell’autore”. Su questa linea, la WIPO ha tentato di definire il concetto di proprietà intellettuale collegandolo alla “creazione della mente”. In entrambi i casi, lo sforzo chiarificativo è stato vanificato – ad avviso di chi scrive – da definizioni poco dettagliate, accrescendo l’incertezza in materia. Non risulta, infatti, alcuna specifica circa la necessaria natura umana dell’autore e/o della mente.

Il dibattito sembra essersi acceso soprattutto negli ultimi anni, a seguito di un’accelerazione creativa da parte dell’AI, la quale, in misura maggiore, ha mostrato ampie abilità nella creazione spontanea di opere, senza che vi fosse alcun intervento umano. Dietro una tale capacità, secondo alcuni studiosi, vi è un processo cognitivo artificiale che simula il funzionamento neuronale del cervello umano combinando e mixando un’immensa mole di input che restituiscono un output umanamente non prevedibile.

Tuttavia, discutere di riconoscimento dell’autorialità in capo ad una macchina intelligente significa immetersi su di un campo minato. Allo stato attuale bisogna ricordare che non vi è alcun personalità giuridica riconosciuta, pertanto il discorso sembra essere aleatorio. E forse, affinchè questo riconoscimento possa trovare attuazione dovrà trascorrere ancora qualche decennio.

Dunque, allo stato attuale l’AI viene ancora considerata come mero “tool” al pari di una semplice macchina da presa o fotografica. Ma giuridicamente parlando, non vi è alcun esplicito riferimento normativo che  garantisca una protezione, seppur minima, alle opere create dall’AI. Forte, infatti, risulta essere il richiamo all’essere umano. In assenza di questo requisito fondamentale, come affermato da molti ricercatori del settore, l’opera cadrebbe in automatico nel pubblico dominio.

La necessaria umanità dietro l’opera creata rinviene la propria ratio giustificatrice nel fatto che la legge sul diritto d’autore pone la propria attenzione sull’autore (persona fisica) e non sull’opera in quanto tale. La complessità della questione risulta proprio dall’ancoraggio dell’autorialità dibattuta ad un approccio utilitaristico della normativa.

Se non Artificial Intelligence, chi?

A riguardo diverse sono le teorie che cercano di individuare il soggetto in capo a cui riconoscere una tutela autoriale. Colui che ha realizzato la macchina stessa, al programmer (colui che ha provveduto all’inserimento degli algoritmi) o allo users?Ovvimente, non si potrà giungere ad una vera e propria definizione della questione. Allo stato attuale, ogni singolo caso dovrà essere valutato di volta in volta. Pertanto, seguendo la scia di molti studiosi e avvocati del settore, l’unica azione legislativa interessante potrebbe essere la creazione di una normativa ad hoc.

Cosa dobbiamo aspettarci?

Il dibattito su temi riguardanti l’autorialità e l’originalità circa opere create dall’AI resta aperto. Prima che vengano tirate le somme saremo costretti ancora a brancolare nel buio dell’universo giuridico, affidandoci a diverse interpretazioni e orientamenti. Ciò sembra terribilmente vero soprattutto nei paesi di Civil Law, mentre qualche passo in avanti è stato compiuto nei paesi di Common law, ed in particolar modo nel Copyright, Designs and Patents Act 1988 (CDPA), la quale, all’articolo 9 (3), con un richiamo specifico al computer generetd work, sembra aver fatto un passo avanti, sebbene la norma sia stata travolta da un tornado interpretativo che spinge in direzioni diverse.

Posto che avere una visione troppo fantascientifica dell’AI come autore, almeno allo stato dell’arte, non ci porta molto lontano. È necessario comprendere, alla luce delle recenti evoluzioni tecnologiche, su cosa vada ad incidere questo cambiamento. Sicuramente bisognerà focalizzarsi sui modelli di business rendendoli più conformi all’esigenza di tutela.

In conclusione, oggi l’AI viene ancora considerata come un semplice tool, al pari di una  macchina fotografica o una macchina da presa. Personalmente trovo questa equiparazione svilente, in quanto questo sistema, soprattutto attraverso il Machine learning, è più di un semplice supporto strumentale. Per cui forse, una normativa ad hoc dovrebbe essere il prossimo passo da intraprendere, pur ammettendo che fino a quando non si procederà al riconoscimento della personalità giuridica, sarà impossibile ottenere una tutela autoriale.
Inoltre, bisognerà cambiare la prospettiva sulla teoria utilitaristica. Ossia, incentivare i ricercatori nella produzione di macchine sempre più intelligenti ed autonome, consentono il progresso della società, senza mai svilire l’uomo e il suo apporto nel lavoro.


Articolo a cura dell’Avv. Angela Patalano