Riflessioni su responsabilità ed AI: il caso ChatGPT vs privacy in Italia e lettera aperta che propone una moratoria di sei mesi sulla "pericolosa" corsa all'AI.
ChatGPT, Data Privacy e l' Open Letter per "mettere in pausa l'AI". Una riflessione sugli avvenimenti dell'ultima settimana e uno spunto critico per capire il problema della responsabilità nell'AI.
Il blocco imposto dal Garante della privacy italiano nei confronti di ChatGPT riguarda la limitazione provvisoria del trattamento dei dati degli utenti italiani da parte di OpenAI. La decisione è stata presa in seguito ad alcune irregolarità riscontrate nell'utilizzo dei dati personali degli utenti da parte di OpenAI.
Uno dei principali problemi che ha portato alla decisione del Garante riguarda l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia dei dati degli utenti. Inoltre, è stato riscontrato che i dati raccolti da ChatGPT non corrispondono sempre alla realtà, creando un problema di inesattezza dei dati stessi.
Un altro aspetto preoccupante riguarda la mancanza di un filtro per la verifica dell'età degli utenti, considerando che il servizio è rivolto anche ai minori di 13 anni. La mancanza di una corretta gestione dei dati personali degli utenti infatti può creare problemi di sicurezza e privacy, soprattutto per i minori.
La raccolta massiccia dei dati personali degli utenti è un problema comune nel campo dell'intelligenza artificiale (AI), in quanto i dati sono fondamentali per addestrare gli algoritmi sottesi al funzionamento della piattaforma. Tuttavia, è importante che queste attività di raccolta e conservazione dei dati personali avvengano nel rispetto delle normative sulla privacy e sulla protezione dei dati personali degli utenti.
Il Garante della privacy ha quindi adottato il blocco provvisorio del trattamento dei dati degli utenti italiani da parte di OpenAI, con l'obiettivo di proteggere la privacy e la sicurezza dei dati personali degli utenti.
Prima di valutare questa decisione presa dal garante della privacy italiana, cerchiamo di capire meglio cosa significhi che Open AI non possa più trattare i dati degli utenti italiani. Dal punto di vista tecnico questa è una procedura alquanto complicata, perchè quello che il garante ha contestato non è ChatGPT di per se, in quanto Large Language Model (LLM), ma il modo in cui i dati usati per trainare il modello sono stati raccolti. Uno degli esempi che il garante esplicita è che le informazioni che riguardano una persona (il garante ha testato se stesso) non vengono riportati secondo la realtà. Questo, come abbiamo già visto nelle precedenti puntate, non è solo un problema di trattamento dei dati, ma di allucinazioni che derivano dal funzionamento proprio degli LLMs (categoria di cui ChatGPT fa parte). Nonostante la questione delle allucinazioni sia nota, dei dettami del General Data Protection Regulation (GDPR) non si parla troppo di frequente. Infatti secondo il GDPR a fronte di informazioni errate riguardo ad una persona, si dovrebbe poter cancellare o modificare tali dati, poiché i dati sono sempre di proprietà della persona che deve poterne decidere. Questo come ben sappiamo non si può fare, perché i dati su cui lavorano i LLMS sono tantissimi e non è possibile modificare un dato singolo.
La decisione del Garante ha sollevato alcune preoccupazioni sulle possibili conseguenze che il blocco potrebbe avere sull'innovazione e sullo sviluppo dell'intelligenza artificiale in Italia e l’Europa. Da un lato, l'intervento del Garante nella vicenda alimenta una narrativa sbagliata sulla limitazione dell'innovazione, spostando l'attenzione mediatica sulla vicenda dal vero problema, ovvero la necessità di regolare l'uso dell'intelligenza artificiale, non di limitarla. Servono regole, non limitazioni innovative. Si deve trovare un equilibrio tra l'innovazione e la protezione dei diritti dei cittadini e della privacy, senza limitare la potenzialità dell'IA.
Quindi se da una parte rimane una reale competizione economica ed innovativa, dall’altra è sicuramente arrivato il momento di regolamentare le tecnologie AI, la ricerca su di esse e l’utilizzo dei dati. Il provvedimento del garante della privacy italiano è sicuramente lacunoso: non risolve il problema della privacy alla radice e non regolamenta i LLMs nel complesso, però potrebbe dare inizio alla discussione sull’argomento che da tempo dovrebbe essere iniziata.
Il Future of Life Institute ha pubblicato una lettera aperta che propone una moratoria di sei mesi sulla "pericolosa" corsa all'AI. La lettera è stata firmata da oltre 3.000 persone, tra cui alcuni membri influenti della comunità di AI. Tuttavia, sia le questioni descritte, che le azioni proposte nella lettera, sono irrealistiche e non necessarie. La richiesta di una pausa nel lavoro sull'AI non è solo vaga, ma anche impraticabile. Mentre l'addestramento dei LLMs da parte di società a scopo di lucro attira la maggior parte dell'attenzione, non è l'unico lavoro sull'AI che si svolge. In realtà la ricerca e la pratica sull'AI stanno avvenendo in aziende, in accademie e in competizioni Kaggle in tutto il mondo su una moltitudine di argomenti che vanno dall'efficienza alla sicurezza. Ciò significa che non esiste un pulsante magico che qualcuno possa premere per bloccare la ricerca sull'AI "pericolosa" consentendo solo quella "sicura". Inoltre, i rischi dell'AI citati nella lettera sono tutti ipotetici, basati su una mentalità “longterminista” che tende a trascurare problemi reali come la discriminazione algoritmica e la predictive policies, che stanno danneggiando le persone ora, a favore di potenziali rischi esistenziali per l'umanità.
Invece di concentrarsi sui modi in cui l'AI potrebbe fallire in futuro, dovremmo concentrarci sulla definizione chiara di ciò che costituisce un successo dell'AI nel presente. Questo percorso è assolutamente chiaro: invece di fermare la ricerca, dobbiamo migliorare la trasparenza e la responsabilità, mentre intanto sviluppiamo linee guida per la distribuzione di sistemi di AI. Le autorità normative di tutto il mondo stanno già redigendo leggi e protocolli per gestire l'uso e lo sviluppo delle nuove tecnologie AI. Una criticità di queste regole è certamente la trasparenza: occorre richiedere ai creatori di sistemi di AI di fornire maggiori informazioni sui dettagli tecnici, come la provenienza dei dati di addestramento, il codice utilizzato per addestrare i modelli e come vengono implementati i filtri di sicurezza.
Inoltre, le aziende che sviluppano modelli di AI devono consentire audit esterni dei loro sistemi e essere responsabili di affrontare i rischi e le lacune qualora vengano identificati. Un altro passo cruciale verso la sicurezza è ripensare collettivamente il modo in cui creiamo e usiamo l'AI. Sviluppatori e ricercatori di AI possono iniziare a stabilire norme e linee guida per la pratica dell'AI, seguendo la strada di chi da anni fornisce un'AI più etica. Tra questi vi sono ricercatori come Timnit Gebru che ha proposto un movimento di "slow AI", e Ruha Benjamin che ha sottolineato l'importanza di creare principi guida per l'AI etica durante la sua presentazione principale a una recente conferenza sull'AI. Anche le iniziative promosse dalla comunità, come il Code of Ethics in corso di realizzazione alla conferenza NeurIPS, fanno parte di questo movimento e mirano a stabilire linee guida su ciò che è accettabile in termini di ricerca sull'IA e su come considerare il suo impatto più ampio sulla società.