0
Come funziona la privacy Policy di Google?

Come funziona la privacy policy di Google?

Di recente la privacy policy di Google è stata modificata per garantire in misura maggiore la sicurezza degli utenti durante la navigazione.
Non è un caso che in questo processo di adeguamento, mirato ad assicurare una regolamentazione equilibrata sull’uso dei dati in tutto il mondo, il GDPR ha rappresentato un’importante fonte di riferimento presa a modello, in unione ad altre leggi e modelli mondiali, per la proposta di un quadro normativo sulla materia.
Come annunciato dal CEO di Google, Sundar Pichai, a partire dal 24 giugno 2020 sono divenute operative le nuove disposizioni policy dirette a raggiungere tre fondamentali obiettivi:

garantire la sicurezza delle informazioni personali, trattarle responsabilmente e permettere all’utente di esercitare il loro controllo”.

Cos’è una policy?

Il regolamento o policy aziendale è quell’insieme di norme adottate unilateralmente dall’azienda per disciplinare la condotta dei propri dipendenti in materie molto specifiche quali l’uso del personal computer, della navigazione in internet o della posta elettronica.
Nell’ ambito delle piattaforme web, questo sistema di norme è rivolto a disciplinare non solo la condotta dell’azienda e dei suoi dipendenti, ma anche quella degli utenti che le utilizzano.
Spesso molto articolate, le policies si suddividono in vari campi regolamentando sia aspetti generali legati all’ utilizzo della piattaforma, che aspetti più dettagliati connessi, ad esempio, alla tutela del copyright, al rispetto della privacy, all’ adeguatezza dei contenuti.

Per avere un’idea più chiara delle policies in ambito web, leggi quella di YouTube qui

700Sundar Pichai, CEO di Google

Nella nuova policy di Google cosa cambia in materia di privacy?

Innanzitutto, la nuova policy di Google ha introdotto l’eliminazione dei dati dopo 18 mesi come impostazione predefinita nella “Cronologia delle posizioni” e nelle “Attività web e app” dei nuovi profili.
Mentre, per i profili già attivi, ha predisposto l’invio di notifiche per ricordare l’opzione “eliminazione automatica”.
È stato, poi, previsto un accesso facilitato alla modalità di navigazione in incognito in tutte le principali App (Search, Maps e YouTube) riferite all’azienda, attivabile cliccando direttamente sull’icona del proprio profilo.
Inoltre, sono stati implementati alcuni strumenti a tutela della privacy personale, come il “Google Privacy Checkup”, con l’aggiunta di raccomandazioni personalizzate e guide step by step per aiutare gli utenti a gestire in maniera corretta le proprie opzioni privacy.     

Per conoscere tutti gli strumenti posti da Google a tutela delle informazioni personali clicca sul seguente link

Quali App di Google non prevedono l’applicazione di queste modifiche?

Per le finalità specifiche perseguite, le novità introdotte dalla modifica della policy di Google non si applicano a Gmail, Drive e Foto, che sono progettati con lo scopo di conservare in sicurezza i contenuti personali in base alle necessità dell’utente.

Hai ulteriori domande inerenti la privacy o il GDPR? Inviaci un’email
0

10.000 FLASH (MOB) a tutela del diritto d’autore

Intervista ad Anna Abet (TauVisual) del Cordinamento delle Associazioni di Fotografi Professionisti

Suscita notevole interesse la manifestazione 10.000 FLASH PER UN FLASH MOB organizzata in oltre 20 città italiane dal
Coordinamento delle Associazioni di Fotografi Professionisti, che raggruppa oltre diecimila fotografi professionisti in tutta Italia.

A Napoli, i flash dei fotografi illumineranno Piazza San Domenico per tre minuti dalle 22,00 alle 22,03 di martedì 21 Luglio 2020 per supportare la campagna nazionale che vede impegnati oltre 10.000 fotografi in tutta Italia con l’hashtag #IoLavoroConLaFotografia

Anche i fotografi napoletani, documentaristi, fotogiornalisti, di architettura e cerimonialisti, hanno aderito alla campagna che da oltre un mese è presente sui social con le foto marcate da una C di Copyright infranta, per denunciare l’appropriazione indebita che si opera sul web.

Anna Abet – Coordinamento delle Associazioni di Fotografi Professionisti

Quello dell’appropriazione delle foto altrui è una pratica all’ordine del giorno sul web (di cui abbiamo discusso nel format Inner Talks insieme ai fotografi Paolo Manzo e Glauco Canalis) e molto spesso si conosce la possibilità effettiva con cui rivalersi nei confronti della maggior parte degli utenti che effettuano queste violazioni.

La manifestazione 10.000 flash lavora proverà quindi a sensibilizzare l’attenzione del pubblico sulla funzione irrinunciabile della fotografia come mezzo di comunicazione e sul rispetto dei diritti d’autore che ne derivano.

0

Responsabilità oggettiva e intelligenza artificiale: modelli di attribuzione

Definiti i soggetti che risponderanno per eventuali errori, bisogna richiamare in causa la Risoluzione del Parlamento Europeo del 2017. Questo intervento, tra i vari obiettivi, tenta di trovare una soluzione valida per sopperire al momentaneo gap normativo in tema da danno derivante dai sistemi di intelligenza artificiale.

Come accennato nel precedente articolo, procedere ad un’interpretazione evolutiva nella risoluzione delle singole fattispecie non appare una soluzione agevole. Pertanto, il Parlamento Europeo ha scisso la responsabilità del produttore circa il malfunzionamento dell’algoritmo, dalla responsabilità (strict liability del produttore) dei robot dotati di autonomia (assicurazione obbligatoria e fondo di risarcimento).

Strick liability da prodotto difettoso

In materia di responsabilità è intervenuta anche la Commissione Europea con una “relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità” (COM(2020)0064), al fine di garantire “che tutti i prodotti e servizi, compresi quelli che integrano le tecnologie digitali emergenti, funzionino in modo sicuro, affidabile e costante e che vi siano rimedi efficaci in caso di danni”; e di comprendere quali implicazioni giuridiche possono emergere in materia di responsabilità e sicurezza.

Mancando un’armonizzazione a livello nazionale ed europeo, attualmente il quadro normativo è composto da quattro direttive.

• La Direttiva 2006/42/CE (direttiva macchine), disciplina i requisiti di salute e sicurezza da rispettare in sede di progettazione e costruzione delle macchine al fine di essere commercializzate;

• La Direttiva 01/95/CE, sulla sicurezza generale dei prodotti immessi sul mercato e destinato al consumo;

• La Direttiva 99/44/CE, posta a tutela dei consumatori, disciplina i diritti e le garanzie ad essi spettanti in relazione ai prodotti suindicati.

•La direttiva 85/374/CEE, ha armonizzato la responsabilità del produttore per prodotti difettosi.

Ove i danni siano collegabili al difetto di fabbricazione, l’onere della prova, ai fini del risarcimento, sarà imputabile al danneggiato. Il quale dovrà dimostrare, in caso di danno fisico o materiale, il difetto e provare il nesso di causalità. Tuttavia, il produttore potrà, a sua volta, dimostrare che il danno non sia a lui imputabile in quanto quell’ errore era imprevedibile.

Quest’ultima soluzione rinviene la propria raison d’être in una normativa ad hoc che tenga conto di una serie di variabili scaturenti dall’utilizzo di questa tecnologia, e che siano rispondenti alla prima regola della robotica: “un robot non può recar danno a un essere umano, ne permettere che, a causa della propria negligenza, un essere umano patisca danno”. Considerando che le leggi di Asimov devono essere rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot (Risoluzione del Parlamento Europeo 2017), è fondamentale che – a prescindere dell’orientamento seguito in futuro – questa tecnologia e i potenziali diritti posti a tutela siano tesi al rispetto dei diritti fondamentali dell’uomo.

Gestione dei rischi

Un altro possibile modello da seguire è la disciplina della “gestione dei rischi”. In questo caso, il regime di responsabilità oggettiva applicata ai sistemi di IA tiene conto di colui che deve “minimizzare i rischi e ridurre l’impatto negativo”. Pertanto, la valutazione della responsabilità dovrà essere proporzionata all’effettivo livello di istruzioni impartite ai robot.[1]

Accanto a questo regime di responsabilità, sulla scia della Risoluzione del Parlamento Europeo, bisogna considerare la previsione:


• Di un’assicurazione obbligatoria. Si tratta di una tutela assicurativa che sia in grado sia di soddisfare la parte danneggiata – attraverso un sistema obbligatorio di assicurazione alimentato dalla ricchezza che l’IA produce nel corso della sua “esistenza” – ma anche di tutelare la società produttrice dell’IA, ove il danno non sia ad essa imputabile. Questa prospettiva appare più appetibile e sensata per quei sistemi che si avvalgono di IA autonoma dove l’incidenza umana, dopo le istruzioni iniziali, sono pressoché minime, se non azzerate. Pensiamo alle auto altamente computerizzate, come una Tesla;

• Di un fondo di risarcimento “generale” per tutti i sistemi di IA automatizzati o di un fondo “individuale” per ogni categoria di macchine intelligenti. Inoltre, i contributi potranno essere versati “una tantum” a seguito dell’immissione sul mercato dell’IA o “periodici” durante l’esistenza/utilizzazione del robot/macchina.

L’istituzione di questo fondo richiederà necessariamente l’intervento del Parlamento nella creazione di un “sistema di immatricolazione individuale”. Ogni macchina intelligente sarà dotata di un proprio numero di immatricolazione e iscritta in un apposito registro. Ai fini della trasparenza, questo consentirà di essere informati sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

In conclusione, appare logico orientarsi sulla gestione dei rischi. Il ricorso a questi strumenti, […] permetterebbero al produttore, programmatore, proprietario di godere di una responsabilità limitata[2] e allo stesso tempo il danneggiato soddisferà il suo diritto al risarcimento bypassando l’annosa difficoltà di individuare il soggetto a cui imputare la responsabilità. Tutto questo richiederà un intervento a livello europeo che disciplini interamente la materia; solo così l’innovazione tecnologia potrà continuare la sua ascesa. Diversamente la produzione e l’adozione dell’IA potrebbe subire una battuta d’arresto.


[1] E. Muri, La responsabilità ed il risarcimento del danno causato da algoritmo http://www.dirittodellinformatica.it/intelligenza-artificiale/la-responsabilita-ed-il-risarcimento-del-danno-causato-da-algoritmo.html

[2] Ibidem

Articolo a cura della Dott.ssa Angela Patalano

0

Chi è il responsabile di un danno cagionato da un’ intelligenza artificiale?

Alle soglie della quarta rivoluzione industriale, il ruolo dell‘intelligenza artificiale (IA) nel medio lungo termine sarà sempre più preponderante, con una conseguente difficile delimitazione del confine tra uomo e macchina.
L’obiettivo è quello di ridurre le tempistiche di produzione accrescendone la qualità attraverso la minimizzazione dell’errore. Ragion per cui la spinta verso una regolamentazione uniforme è diventata improcrastinabile.

Abbiamo già sviluppato alcuni aspetti in merito all’impatto dell’IA sul diritto d’autore, e di come questo diritto, data la natura personalistica, porti ad escludere la tutela per le opere generate dall’IA, prediligendo, invece, una disciplina ad hoc, come i diritti sui generis.
Abbiamo seguito il dibattito del Parlamento Europeo e analizzato la proposta avanzata dallo stesso in una Risoluzione del 2017; un documento nel quale si ipotizzava l’attribuzione all’IA di una personalità elettronica. Si è infatti constatato, in via interpretativa, che la ratio sottesa a tale scelta riguardi l’uomo e non la macchina, garantendo il bilanciamento e al contempo il rispetto dei diritti fondamentali dell’uomo.

Un’altra questione fondamentale riguarda il regime della responsabilità civile per i danni causati dall’IA, per la quale il Parlamento ritiene che sia necessario un intervento legislativo che vada a colmare il gap normativo in materia. Questo potenziale strumento dovrà poggiare su alcuni principi che si riflettono sulla non limitazione:

• Della tipologia e dell’entità del danno risarcibile;
• Del risarcimento del danno provocato dall’IA.

Questa prospettiva ha condotto ad una scissione in dottrina sia a livello nazionale che sovranazionale. Da un lato, vi è chi incentiva la configurazione di profili di responsabilità in capo ai sistemi di IA; dall’altro, i rappresentanti delle Istituzioni e altra parte della dottrina hanno respinto una tale previsione in quanto troppo futurista e soprattutto necessaria di una propedeutica definizione della questione sia da un punto di vista etico che morale. Tale esigenza ha trovato risposta nella proposta avanzata nella Risoluzione del 2017, ossia nella realizzazione di un codice etico-deontologico nel settore dell’IA.

Appare lecito chiedersi, ove la fattispecie lesiva si configuri, a carico di chi debba essere imputata la responsabilità e l’eventuale risarcimento del danno. 

Per chiarire questo aspetto dobbiamo considerare che allo stato attuale gli errori possono essere generati da due tipi di IA:

• Quella governata dall’uomo: la macchina usa un modello stabilito dal programmatore. In questo caso la problematica è di facile soluzione in quanto, questa tecnologia, è considerata solo uno strumento e non un agente. Pertanto, la responsabilità ricadrebbe su tutti coloro che hanno contribuito alla sua produzione. In questo caso si richiederebbe “una semplice prova del danno avvenuto e l’individuazione del nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte lesa; [1]

• Quella implementata sulla tecnologia machine learning e deep learning: parliamo di un’intelligenza artificiale altamente automatizzata per cui, l’accertamento del danno conseguente all’errore dovrebbe essere sottoposto ad una disciplina ad hoc che integri o sostituisca la disciplina della responsabilità per danno da prodotto difettoso.

Le implicazioni giuridiche emergono proprio in ragione di quest’ultima ipotesi. Infatti, alla luce di un’IA automatizzata, le relazioni contrattuali andranno analizzate in un’ottica completamente diversa. Prima di tutto i fattori da valutare non saranno più soggettivi (la diligenza del buon padre di famiglia, la stanchezza, la precisione…), ma oggettivi. La prestazione contrattuale che vede coinvolta IA, infatti, è sempre “perfetta”. Ad un danno corrisponde uno specifico errore, ad esempio l’errata configurazione o ancora, ad uno specifico input corrisponde uno specifico output. Se questo dovesse discostarsi dal risultato atteso provocherebbe un danno economico.

MILLO, nome d'arte di Francesco Camillo Giorgino, è uno degli street artist più famosi al mondo.Puoi trovare le sue opere
Diritto d'autore - direttiva - pubblicazione in Gazzetta Ufficiale
La Direttiva Copyright 790/2019 emanata dal Parlamento Europeo è stata, dopo numerosi discussioni e compromessi, alla fine attuata anche in Italia.Le nuove norme
Copyright vs Creative Commons
Breve video guida per capire con che licenza diffondere le tue opere e non incorrere nel pericolo di violare il
"Ho appena commesso un reato on line". In molti penseranno che una frase del genere possa uscire solo dalla bocca

Soggetti potenzialmente coinvolti

  1. Società produttrice dell’AI

Le aziende stanno investendo enormi quantità di denaro e manodopera nello sviluppo, nell’istruzione e nella manutenzione dei sistemi di IA. A fronte di questo cospicuo investimento, che prevede anche la collaborazione di professionisti atti a minimizzare l’errore, eventuali danni fanno emergere la responsabilità civile da prodotto difettoso. Pensiamo al caso dell’investitore di Hong Kong che aveva affidato la gestione delle proprie attività in Borsa a un sistema di intelligenza artificiale, che apparentemente gli ha comportato perdite pari a 20 milioni di dollari in un solo giorno. In questo caso l’investitore ha agito giudizialmente nei confronti della società di investimenti che aveva adottato il sistema di Ai[2].

  • 2. Programmatore

Considerato la mente dietro l’algoritmo, il programmatore è colui che istruisce la macchina, governando completamente l’output. Tuttavia, oggi, i sistemi IA sono sempre più autonomi a tal punto che difficilmente il programmatore riuscirà a prevedere la realizzazione di un determinato output. Questa relazione tra autonomia dell’IA e programmatore, in termini di responsabilità, è ben riassunta al punto 56 della Risoluzione. Per cui: “quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore. [3] Dunque, un eventuale danno dovrà essere valutato in relazione all’istruzione ricevuta, tenendo conto di quanto questa abbia inciso sulla configurazione del danno stesso.

A fronte di un danno, i soggetti coinvolti – il produttore e il programmatore – potrebbero argomentare che al momento della produzione dell’IA il danno scaturente dall’errore era imprevedibile, configurandosi solo successivamente in fase di istruzione da parte dell’utilizzatore. Questa conclusione aumenta l’incertezza giuridica con un conseguente stallo nella risoluzione della questione. Infatti, in assenza di un’adeguata ed uniforme legislazione, l’autorità competente non avrà altra scelta che ricorre ai principi normativi di responsabilità per danni conseguenti all’uso di sistemi di intelligenza artificiale. Tuttavia, ciò determinerebbe l’adozione di un’interpretazione evolutiva (forzata) della normativa in materia. Il gap potrebbe essere dunque colmato con l’adozione di modelli di responsabilità che si conformino alle esigenze del caso, come vedremo nel prossimo articolo.


[1] AA.VV. Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di F. Pizzetti, Giappichelli Editore, Torino 2018

[2] G. Coraggio, Chi paga se rompe il robot?https://www.wired.it/economia/business/2020/02/05/robot-responsabilita-civile/

[3] L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale: Sfide etiche al diritto, Edizioni Studium S.r.l. 2020

Articolo a cura della Dott.ssa Angela Patalano

0

Videocamere di sorveglianza e privacy personale

L’installazione di videocamere di sorveglianza è un mezzo comunemente utilizzato in molteplici contesti al fine di garantire la sicurezza di beni e persone.
Tuttavia, l’utilizzo di questo sistema comporta anche una serie di rischi relativamente alla privacy personale, a causa della grande quantità di dati raccolti tramite le registrazioni attive H24.

Il GDPR predispone, infatti, alcune regole necessarie per garantire il rispetto della privacy dei soggetti interessati.
Nel dettaglio, la materia della videosorveglianza è caratterizzata dalla particolarità della doppia informativa poichè all’informativa completa, resa conformemente a quanto disposto dal Regolamento UE n.679/2016, si aggiunge la presenza di un’informativa minima (il cartello “Area videosorvegliata”), come già prevista dall’abrogato art. 13 comma 3 del vecchio Codice Privacy.
Ai sensi del punto 3.1 del Provvedimento Generale dell’8 aprile 2010 del Garante Privacy, l’informativa minima:
– deve essere collocata prima del raggio di azione della telecamera, anche nelle sue immediate vicinanze e non necessariamente a contatto con gli impianti;
– deve avere un formato ed un posizionamento tale da essere chiaramente visibile in ogni condizione di illuminazione ambientale, anche quando il sistema di videosorveglianza sia eventualmente attivo in orario notturno;
– può inglobare un simbolo o una stilizzazione di esplicita e immediata comprensione, eventualmente diversificati al fine di informare se le immagini sono solo visionate o anche registrate.

Per conoscere gli elementi fondamentali di un’informativa privacy completa puoi leggere il mio precedente articolo sul tema

L’informativa privacy: i diritti dell’interessato al trattamento dati

Inoltre, l’uso di un sistema di videocamere di sorveglianza è subordinato al rispetto di adeguate misure di sicurezza, riducendo al minimo i rischi di distruzione, di perdita, anche accidentale, di accesso non autorizzato, di trattamento non consentito o non conforme alle finalità della raccolta, anche in relazione alla trasmissione delle immagini.
Le misure di sicurezza da adottare sono previste dall’art. 32 del GDPR il cui testo è visionabile qui:

Installazione di videocamere di sorveglianza nei luoghi di lavoro

Ancor più delicata e complessa è la disciplina della videosorveglianza applicata ai luoghi di lavoro che, per essere ammessa, deve risultare subordinata alle seguenti motivazioni:
– esigenze organizzative e produttive: es. il controllo della qualità produttiva attraverso i video;
– esigenze di sicurezza sul lavoro: es. lavoratori che operano in luoghi isolati;
– tutela del patrimonio aziendale: es. presenza di componenti o materiale di alto valore.

La materia richiederebbe una ben più ampia trattazione, tuttavia, ecco alcune linee guida da seguire per non incorrere in pesanti sanzioni come previste dall’art.83 del GDPR.
Innanzitutto, occorre sapere che prima di installare un impianto di videosorveglianza è necessario sottoscrivere un accordo sindacale oppure ottenere l’autorizzazione dell’ITL o dell’INL.
In aggiunta alle suddette autorizzazioni bisogna fornire anche l’informativa sulla privacy al dipendente, che ha carattere necessario.
Soggette ad autorizzazione devono essere tutte le telecamere che si vogliono installare, anche quelle poste fuori l’azienda poiché l’autorizzazione riguarda anche quei luoghi in cui i lavoratori si trovano momentaneamente o di passaggio.
Infine, si precisa che è possibile riprendere i lavoratori purché ciò avvenga in via incidentale e occasionalmente. Inquadrare direttamente il dipendente si può, ma solo se esistono delle ragioni che lo giustificano, come per esempio la tutela della sicurezza sul lavoro.

Articolo a cura della Dott.ssa Camilla Marotta