0

Come funziona la privacy con le App di messaggistica istantanea?

Le App di messaggistica istantanea hanno oramai soppiantato gli “antichi” SMS, ma siamo davvero a conoscenza di come funziona la privacy delle nostre comunicazioni?

Milioni di messaggi al secondo sono inviati tramite le note App di messaggistica sempre più di frequentemente utilizzate (whatsapp, telegram, instagram, facebook messenger), sia per uso personale che professionale.
Dunque, molto gravi possono essere i rischi legati alla privacy a cui si può andare incontro; basti pensare al furto di informazioni di personaggi famosi, come quello riportato nel gennaio 2020 dal giornale inglese “The Guardian” che ha pubblicato i risultati di un’indagine su un attacco hacker ai danni del fondatore e CEO di Amazon Jeff Bezos colpito, nel maggio 2018, da un malware inviato dal principe dell’Arabia Saudita Mohammed tramite un semplice messaggio di WhatsApp.
Citare un esempio di tale calibro fa immediatamente intendere come sia semplice ledere la sicurezza delle nostre comunicazioni.

In che modo le App di messaggistica istantanea possono garantire la nostra riservatezza?

Uno dei sistemi più efficaci per salvaguardare la riservatezza degli utenti è l’utilizzo della crittografia end-to-end (E2E), ossia un sistema di comunicazione cifrata basato sulla generazione di una coppia di chiavi crittografiche, una “privata” ed una “pubblica”, che consentono di cifrare e decifrare i messaggi in partenza ed in arrivo in modo che risultino leggibili solo dal mittente e dal destinatario.

Ma tutte le App di messaggistica istantanea usano la crittografia end-to-end?

Oggi tutte le App di messaggistica istantanea impostano di default la crittografia end-to-end, ad eccezione di Telegram e di Facebook Messenger.
In queste applicazioni, infatti, la crittografia E2E deve essere abilitata dall’utente, attivando l’opzione “chat segrete” (per Telegram) o “conversazioni segrete” (per FB Messenger).
Dunque, se non si utilizza una chat segreta, i dati vengono salvati sui rispettivi server con un’evidente compromissione della sicurezza dei dati personali.
Di contro, altre famosissime App, come WhatsApp, pur adottando la crittografia end-to-end quale impostazione predefinita, presentano altre gravi inefficienze per quanto attiene, ad esempio, la conservazione dei cosiddetti metadati dei messaggi che sono memorizzati sui server in forma non cifrata.

Non esiste, dunque, un App sicura?

È davvero difficile trovare un App completamente sicura e la ragione è da ricercarsi nella natura stessa del web, universo fluido ed impossibile da governare nella sua totalità.
Tuttavia, ad opinione dei principali esperti di cybersecurity, una delle applicazioni più sicure è Signal che utilizza un protocollo di crittografia E2E (il Signal Encryption Protocol) considerato tra i migliori.
A differenza delle altre App di messaggistica, Signal garantisce un livello di privacy e sicurezza superiore in quanto:
– memorizza solo i metadati strettamente necessari per il suo funzionamento senza salvare alcuna informazione relativa alla conversazione;
– per ragioni di sicurezza i messaggi sono memorizzati localmente sul dispositivo e non vengono neppure salvati nel backup di iCloud (nel caso di iPhone);
– il codice sorgente di Signal è pubblico, secondo la logica dell’open source ed il controllo audit di sicurezza è effettuato da un team indipendente.

Tuttavia, Signal è ancora un’app di nicchia poichè, non permettendo il backup della chat, è destinata ad avere una diffusione piuttosto limitata dato che l’utente medio continuerà a preferire la praticità d’uso e la diffusione rispetto alla sicurezza.

0
Come funziona la privacy Policy di Google?

Come funziona la privacy policy di Google?

Di recente la privacy policy di Google è stata modificata per garantire in misura maggiore la sicurezza degli utenti durante la navigazione.
Non è un caso che in questo processo di adeguamento, mirato ad assicurare una regolamentazione equilibrata sull’uso dei dati in tutto il mondo, il GDPR ha rappresentato un’importante fonte di riferimento presa a modello, in unione ad altre leggi e modelli mondiali, per la proposta di un quadro normativo sulla materia.
Come annunciato dal CEO di Google, Sundar Pichai, a partire dal 24 giugno 2020 sono divenute operative le nuove disposizioni policy dirette a raggiungere tre fondamentali obiettivi:

garantire la sicurezza delle informazioni personali, trattarle responsabilmente e permettere all’utente di esercitare il loro controllo”.

Cos’è una policy?

Il regolamento o policy aziendale è quell’insieme di norme adottate unilateralmente dall’azienda per disciplinare la condotta dei propri dipendenti in materie molto specifiche quali l’uso del personal computer, della navigazione in internet o della posta elettronica.
Nell’ ambito delle piattaforme web, questo sistema di norme è rivolto a disciplinare non solo la condotta dell’azienda e dei suoi dipendenti, ma anche quella degli utenti che le utilizzano.
Spesso molto articolate, le policies si suddividono in vari campi regolamentando sia aspetti generali legati all’ utilizzo della piattaforma, che aspetti più dettagliati connessi, ad esempio, alla tutela del copyright, al rispetto della privacy, all’ adeguatezza dei contenuti.

Per avere un’idea più chiara delle policies in ambito web, leggi quella di YouTube qui

700Sundar Pichai, CEO di Google

Nella nuova policy di Google cosa cambia in materia di privacy?

Innanzitutto, la nuova policy di Google ha introdotto l’eliminazione dei dati dopo 18 mesi come impostazione predefinita nella “Cronologia delle posizioni” e nelle “Attività web e app” dei nuovi profili.
Mentre, per i profili già attivi, ha predisposto l’invio di notifiche per ricordare l’opzione “eliminazione automatica”.
È stato, poi, previsto un accesso facilitato alla modalità di navigazione in incognito in tutte le principali App (Search, Maps e YouTube) riferite all’azienda, attivabile cliccando direttamente sull’icona del proprio profilo.
Inoltre, sono stati implementati alcuni strumenti a tutela della privacy personale, come il “Google Privacy Checkup”, con l’aggiunta di raccomandazioni personalizzate e guide step by step per aiutare gli utenti a gestire in maniera corretta le proprie opzioni privacy.     

Per conoscere tutti gli strumenti posti da Google a tutela delle informazioni personali clicca sul seguente link

Quali App di Google non prevedono l’applicazione di queste modifiche?

Per le finalità specifiche perseguite, le novità introdotte dalla modifica della policy di Google non si applicano a Gmail, Drive e Foto, che sono progettati con lo scopo di conservare in sicurezza i contenuti personali in base alle necessità dell’utente.

Hai ulteriori domande inerenti la privacy o il GDPR? Inviaci un’email
0

10.000 FLASH (MOB) a tutela del diritto d’autore

Intervista ad Anna Abet (TauVisual) del Cordinamento delle Associazioni di Fotografi Professionisti

Suscita notevole interesse la manifestazione 10.000 FLASH PER UN FLASH MOB organizzata in oltre 20 città italiane dal
Coordinamento delle Associazioni di Fotografi Professionisti, che raggruppa oltre diecimila fotografi professionisti in tutta Italia.

A Napoli, i flash dei fotografi illumineranno Piazza San Domenico per tre minuti dalle 22,00 alle 22,03 di martedì 21 Luglio 2020 per supportare la campagna nazionale che vede impegnati oltre 10.000 fotografi in tutta Italia con l’hashtag #IoLavoroConLaFotografia

Anche i fotografi napoletani, documentaristi, fotogiornalisti, di architettura e cerimonialisti, hanno aderito alla campagna che da oltre un mese è presente sui social con le foto marcate da una C di Copyright infranta, per denunciare l’appropriazione indebita che si opera sul web.

Anna Abet – Coordinamento delle Associazioni di Fotografi Professionisti

Quello dell’appropriazione delle foto altrui è una pratica all’ordine del giorno sul web (di cui abbiamo discusso nel format Inner Talks insieme ai fotografi Paolo Manzo e Glauco Canalis) e molto spesso si conosce la possibilità effettiva con cui rivalersi nei confronti della maggior parte degli utenti che effettuano queste violazioni.

La manifestazione 10.000 flash lavora proverà quindi a sensibilizzare l’attenzione del pubblico sulla funzione irrinunciabile della fotografia come mezzo di comunicazione e sul rispetto dei diritti d’autore che ne derivano.

0

Responsabilità oggettiva e intelligenza artificiale: modelli di attribuzione

Definiti i soggetti che risponderanno per eventuali errori, bisogna richiamare in causa la Risoluzione del Parlamento Europeo del 2017. Questo intervento, tra i vari obiettivi, tenta di trovare una soluzione valida per sopperire al momentaneo gap normativo in tema da danno derivante dai sistemi di intelligenza artificiale.

Come accennato nel precedente articolo, procedere ad un’interpretazione evolutiva nella risoluzione delle singole fattispecie non appare una soluzione agevole. Pertanto, il Parlamento Europeo ha scisso la responsabilità del produttore circa il malfunzionamento dell’algoritmo, dalla responsabilità (strict liability del produttore) dei robot dotati di autonomia (assicurazione obbligatoria e fondo di risarcimento).

Strick liability da prodotto difettoso

In materia di responsabilità è intervenuta anche la Commissione Europea con una “relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità” (COM(2020)0064), al fine di garantire “che tutti i prodotti e servizi, compresi quelli che integrano le tecnologie digitali emergenti, funzionino in modo sicuro, affidabile e costante e che vi siano rimedi efficaci in caso di danni”; e di comprendere quali implicazioni giuridiche possono emergere in materia di responsabilità e sicurezza.

Mancando un’armonizzazione a livello nazionale ed europeo, attualmente il quadro normativo è composto da quattro direttive.

• La Direttiva 2006/42/CE (direttiva macchine), disciplina i requisiti di salute e sicurezza da rispettare in sede di progettazione e costruzione delle macchine al fine di essere commercializzate;

• La Direttiva 01/95/CE, sulla sicurezza generale dei prodotti immessi sul mercato e destinato al consumo;

• La Direttiva 99/44/CE, posta a tutela dei consumatori, disciplina i diritti e le garanzie ad essi spettanti in relazione ai prodotti suindicati.

•La direttiva 85/374/CEE, ha armonizzato la responsabilità del produttore per prodotti difettosi.

Ove i danni siano collegabili al difetto di fabbricazione, l’onere della prova, ai fini del risarcimento, sarà imputabile al danneggiato. Il quale dovrà dimostrare, in caso di danno fisico o materiale, il difetto e provare il nesso di causalità. Tuttavia, il produttore potrà, a sua volta, dimostrare che il danno non sia a lui imputabile in quanto quell’ errore era imprevedibile.

Quest’ultima soluzione rinviene la propria raison d’être in una normativa ad hoc che tenga conto di una serie di variabili scaturenti dall’utilizzo di questa tecnologia, e che siano rispondenti alla prima regola della robotica: “un robot non può recar danno a un essere umano, ne permettere che, a causa della propria negligenza, un essere umano patisca danno”. Considerando che le leggi di Asimov devono essere rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot (Risoluzione del Parlamento Europeo 2017), è fondamentale che – a prescindere dell’orientamento seguito in futuro – questa tecnologia e i potenziali diritti posti a tutela siano tesi al rispetto dei diritti fondamentali dell’uomo.

Gestione dei rischi

Un altro possibile modello da seguire è la disciplina della “gestione dei rischi”. In questo caso, il regime di responsabilità oggettiva applicata ai sistemi di IA tiene conto di colui che deve “minimizzare i rischi e ridurre l’impatto negativo”. Pertanto, la valutazione della responsabilità dovrà essere proporzionata all’effettivo livello di istruzioni impartite ai robot.[1]

Accanto a questo regime di responsabilità, sulla scia della Risoluzione del Parlamento Europeo, bisogna considerare la previsione:


• Di un’assicurazione obbligatoria. Si tratta di una tutela assicurativa che sia in grado sia di soddisfare la parte danneggiata – attraverso un sistema obbligatorio di assicurazione alimentato dalla ricchezza che l’IA produce nel corso della sua “esistenza” – ma anche di tutelare la società produttrice dell’IA, ove il danno non sia ad essa imputabile. Questa prospettiva appare più appetibile e sensata per quei sistemi che si avvalgono di IA autonoma dove l’incidenza umana, dopo le istruzioni iniziali, sono pressoché minime, se non azzerate. Pensiamo alle auto altamente computerizzate, come una Tesla;

• Di un fondo di risarcimento “generale” per tutti i sistemi di IA automatizzati o di un fondo “individuale” per ogni categoria di macchine intelligenti. Inoltre, i contributi potranno essere versati “una tantum” a seguito dell’immissione sul mercato dell’IA o “periodici” durante l’esistenza/utilizzazione del robot/macchina.

L’istituzione di questo fondo richiederà necessariamente l’intervento del Parlamento nella creazione di un “sistema di immatricolazione individuale”. Ogni macchina intelligente sarà dotata di un proprio numero di immatricolazione e iscritta in un apposito registro. Ai fini della trasparenza, questo consentirà di essere informati sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

In conclusione, appare logico orientarsi sulla gestione dei rischi. Il ricorso a questi strumenti, […] permetterebbero al produttore, programmatore, proprietario di godere di una responsabilità limitata[2] e allo stesso tempo il danneggiato soddisferà il suo diritto al risarcimento bypassando l’annosa difficoltà di individuare il soggetto a cui imputare la responsabilità. Tutto questo richiederà un intervento a livello europeo che disciplini interamente la materia; solo così l’innovazione tecnologia potrà continuare la sua ascesa. Diversamente la produzione e l’adozione dell’IA potrebbe subire una battuta d’arresto.


[1] E. Muri, La responsabilità ed il risarcimento del danno causato da algoritmo http://www.dirittodellinformatica.it/intelligenza-artificiale/la-responsabilita-ed-il-risarcimento-del-danno-causato-da-algoritmo.html

[2] Ibidem

Articolo a cura della Dott.ssa Angela Patalano

0

Chi è il responsabile di un danno cagionato da un’ intelligenza artificiale?

Alle soglie della quarta rivoluzione industriale, il ruolo dell‘intelligenza artificiale (IA) nel medio lungo termine sarà sempre più preponderante, con una conseguente difficile delimitazione del confine tra uomo e macchina.
L’obiettivo è quello di ridurre le tempistiche di produzione accrescendone la qualità attraverso la minimizzazione dell’errore. Ragion per cui la spinta verso una regolamentazione uniforme è diventata improcrastinabile.

Abbiamo già sviluppato alcuni aspetti in merito all’impatto dell’IA sul diritto d’autore, e di come questo diritto, data la natura personalistica, porti ad escludere la tutela per le opere generate dall’IA, prediligendo, invece, una disciplina ad hoc, come i diritti sui generis.
Abbiamo seguito il dibattito del Parlamento Europeo e analizzato la proposta avanzata dallo stesso in una Risoluzione del 2017; un documento nel quale si ipotizzava l’attribuzione all’IA di una personalità elettronica. Si è infatti constatato, in via interpretativa, che la ratio sottesa a tale scelta riguardi l’uomo e non la macchina, garantendo il bilanciamento e al contempo il rispetto dei diritti fondamentali dell’uomo.

Un’altra questione fondamentale riguarda il regime della responsabilità civile per i danni causati dall’IA, per la quale il Parlamento ritiene che sia necessario un intervento legislativo che vada a colmare il gap normativo in materia. Questo potenziale strumento dovrà poggiare su alcuni principi che si riflettono sulla non limitazione:

• Della tipologia e dell’entità del danno risarcibile;
• Del risarcimento del danno provocato dall’IA.

Questa prospettiva ha condotto ad una scissione in dottrina sia a livello nazionale che sovranazionale. Da un lato, vi è chi incentiva la configurazione di profili di responsabilità in capo ai sistemi di IA; dall’altro, i rappresentanti delle Istituzioni e altra parte della dottrina hanno respinto una tale previsione in quanto troppo futurista e soprattutto necessaria di una propedeutica definizione della questione sia da un punto di vista etico che morale. Tale esigenza ha trovato risposta nella proposta avanzata nella Risoluzione del 2017, ossia nella realizzazione di un codice etico-deontologico nel settore dell’IA.

Appare lecito chiedersi, ove la fattispecie lesiva si configuri, a carico di chi debba essere imputata la responsabilità e l’eventuale risarcimento del danno. 

Per chiarire questo aspetto dobbiamo considerare che allo stato attuale gli errori possono essere generati da due tipi di IA:

• Quella governata dall’uomo: la macchina usa un modello stabilito dal programmatore. In questo caso la problematica è di facile soluzione in quanto, questa tecnologia, è considerata solo uno strumento e non un agente. Pertanto, la responsabilità ricadrebbe su tutti coloro che hanno contribuito alla sua produzione. In questo caso si richiederebbe “una semplice prova del danno avvenuto e l’individuazione del nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte lesa; [1]

• Quella implementata sulla tecnologia machine learning e deep learning: parliamo di un’intelligenza artificiale altamente automatizzata per cui, l’accertamento del danno conseguente all’errore dovrebbe essere sottoposto ad una disciplina ad hoc che integri o sostituisca la disciplina della responsabilità per danno da prodotto difettoso.

Le implicazioni giuridiche emergono proprio in ragione di quest’ultima ipotesi. Infatti, alla luce di un’IA automatizzata, le relazioni contrattuali andranno analizzate in un’ottica completamente diversa. Prima di tutto i fattori da valutare non saranno più soggettivi (la diligenza del buon padre di famiglia, la stanchezza, la precisione…), ma oggettivi. La prestazione contrattuale che vede coinvolta IA, infatti, è sempre “perfetta”. Ad un danno corrisponde uno specifico errore, ad esempio l’errata configurazione o ancora, ad uno specifico input corrisponde uno specifico output. Se questo dovesse discostarsi dal risultato atteso provocherebbe un danno economico.

Una grande novità in tema di giustizia e integrazione digitale: da oggi infatti i difensori già costituiti in un procedimento
MILLO, nome d'arte di Francesco Camillo Giorgino, è uno degli street artist più famosi al mondo.Puoi trovare le sue opere
La Proprietà Intellettuale rappresenta sempre più una risorsa strategica per la crescita economica di un’azienda. Questa circostanza confermata dalla presenza

Soggetti potenzialmente coinvolti

  1. Società produttrice dell’AI

Le aziende stanno investendo enormi quantità di denaro e manodopera nello sviluppo, nell’istruzione e nella manutenzione dei sistemi di IA. A fronte di questo cospicuo investimento, che prevede anche la collaborazione di professionisti atti a minimizzare l’errore, eventuali danni fanno emergere la responsabilità civile da prodotto difettoso. Pensiamo al caso dell’investitore di Hong Kong che aveva affidato la gestione delle proprie attività in Borsa a un sistema di intelligenza artificiale, che apparentemente gli ha comportato perdite pari a 20 milioni di dollari in un solo giorno. In questo caso l’investitore ha agito giudizialmente nei confronti della società di investimenti che aveva adottato il sistema di Ai[2].

  • 2. Programmatore

Considerato la mente dietro l’algoritmo, il programmatore è colui che istruisce la macchina, governando completamente l’output. Tuttavia, oggi, i sistemi IA sono sempre più autonomi a tal punto che difficilmente il programmatore riuscirà a prevedere la realizzazione di un determinato output. Questa relazione tra autonomia dell’IA e programmatore, in termini di responsabilità, è ben riassunta al punto 56 della Risoluzione. Per cui: “quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore. [3] Dunque, un eventuale danno dovrà essere valutato in relazione all’istruzione ricevuta, tenendo conto di quanto questa abbia inciso sulla configurazione del danno stesso.

A fronte di un danno, i soggetti coinvolti – il produttore e il programmatore – potrebbero argomentare che al momento della produzione dell’IA il danno scaturente dall’errore era imprevedibile, configurandosi solo successivamente in fase di istruzione da parte dell’utilizzatore. Questa conclusione aumenta l’incertezza giuridica con un conseguente stallo nella risoluzione della questione. Infatti, in assenza di un’adeguata ed uniforme legislazione, l’autorità competente non avrà altra scelta che ricorre ai principi normativi di responsabilità per danni conseguenti all’uso di sistemi di intelligenza artificiale. Tuttavia, ciò determinerebbe l’adozione di un’interpretazione evolutiva (forzata) della normativa in materia. Il gap potrebbe essere dunque colmato con l’adozione di modelli di responsabilità che si conformino alle esigenze del caso, come vedremo nel prossimo articolo.


[1] AA.VV. Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di F. Pizzetti, Giappichelli Editore, Torino 2018

[2] G. Coraggio, Chi paga se rompe il robot?https://www.wired.it/economia/business/2020/02/05/robot-responsabilita-civile/

[3] L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale: Sfide etiche al diritto, Edizioni Studium S.r.l. 2020

Articolo a cura della Dott.ssa Angela Patalano

1 2 3 4 5 10