AI Act: le prime regole per l'Intelligenza Artificiale
Il Parlamento Europeo ha approvato l'AI Act. Che cosa sono queste regole che entreranno in vigore tra un anno e come impatteranno sui cittadini/e e aziende italiane?
Ciao a tutti/e, ben tornati alla newsletter!
In queste ultime settimane si sono aggiunti molti nuovi lettori e lettrici. Benvenute e benvenuti!
Abbiamo scritto questa newsletter all’inizio della settimana, prima che l’AI Act venisse votato in Parlamento Europeo. Ieri Mercoledì 14 Giugno il Parlamento Europeo ha votato ed approvato con ampia maggioranza l’AI Act. Ci si aspetta che il voto finale sia entro la fine del 2023 e che l’AI Act entri in vigore tra un anno (Giugno 2024). Inoltre, la Commissione Europea sta lavorando all’AI Pact, un patto volontario che dovrebbe coinvolgere le major firms Europee e non.
Questo numero inizia con un aneddoto che vede come protagonisti il CEO di OpenAI Sam Altman e l’AI Act. Il 16 maggio Altman testimonia davanti al Congresso americano circa la pericolosità dell’Intelligenza Artificiale (AI) e nel frattempo l’Unione Europea si accinge a fare un passo avanti nella direzione della regolamentazione dell’AI con l’AI Act. Il 24 maggio Altman a fronte delle regole presenti nell’AI Act, avvisa che tali regole potrebbero portare alla rimozione dei prodotti di OpenAI (ChatGPT) in Europa.
Perché questo movimento di Altman non sorprende? E’ l’AI Act a promuovere una serie di regole troppo proibitive e limitanti, oppure l’AI Act è un passo positivo (e tanto atteso) per l’Unione Europea?
Per rispondere a queste domande introdurremo molto brevemente gli avvenimenti più importanti nell’ambito della legislazione che riguarda l’AI per poi analizzare che impatto potrebbe avere concretamente l’AI Act sui cittadine /i e sulle aziende.
Come probabilmente avrete compreso dall’aneddoto di apertura, creare e promuovere delle leggi sull’AI non è semplice. Le regolamentazioni AI, ovvero quelle istanze che implicano l'istituzione di politiche e legislazioni per promuovere e regolamentare l’AI, sono state infatti oggetto di controversie per diverso tempo.
Per rendere l’idea degli sforzi compiuti in tal senso, riporto qui di seguito una breve cronologia delle regolamentazioni a livello mondiale.
General Data Protection Regulation (GDPR) Nel 2018, l'Unione Europea ha introdotto il Regolamento generale sulla protezione dei dati, che include disposizioni che influiscono sull'AI, in particolare una formulazione che garantisce il "diritto di spiegazione" - essenzialmente il diritto di ricevere una spiegazione sull'output di un algoritmo.
Canada’s Bill C-27 Nel giugno 2022, il Canada ha presentato il disegno di legge C-27, noto anche come Digital Charter Implementation Act, 2022, che attua l'Artificial Intelligence and Data Act (AIDA), la prima legislazione canadese sull'intelligenza artificiale. Ciò incoraggia l'adozione responsabile delle tecnologie AI da parte di individui e imprese.
AI Act Introdotto nel 2022: è una proposta di legge dell'Unione Europea sull'intelligenza artificiale; sarebbe la prima legge sull'IA adottata da un importante organo regolatore. Esso suddivide le applicazioni dell'IA in tre categorie di rischio: quelle che rappresentano un pericolo inaccettabile sono vietate, quelle che presentano un alto rischio sono soggette a rigorose limitazioni, e quelle che presentano un basso rischio sono soggette a obblighi di trasparenza.
Oltre a queste regolamentazioni, altri sforzi sono stati fatti per sostenere lo sviluppo etico e l'uso dell'AI. Un esempio è l'Iniziativa globale IEEE sull'etica dei sistemi autonomi e intelligenti, avviata nel 2016 con lo scopo di sviluppare standard etici per la progettazione e lo sviluppo di sistemi autonomi e intelligenti.
Perché negli ultimi tempi si è parlato tanto dell’AI Act e di regolamentare l’AI?
Uno dei motivi è che l’ AI Act, introdotto come proposta di legge nel 2022, sta facendo passi avanti e sembra che, per la prima volta nella storia dell’umanità, si potrebbero avere delle leggi sull’AI. Infatti nelle prime settimane di Maggio 2023, il Comitato per il mercato interno e il Comitato per le libertà civili hanno votato a favore (84 voti a favore, 7 contrari e 12 astenuti ) di un draft per la negoziazione del mandato sull’AI Act. Questo significa che lo stesso AI Act è prossimo ad essere promulgato.
A grandi linee, i tre grandi temi che affronta l’AI Act sono:
Gli MPEs (deputati) includono nell’AI Act divieti sulla sorveglianza biometrica, sul riconoscimento delle emozioni e sui sistemi AI usati per “polizia predittiva “ (predicting policing).
Propongono regimi “su misura” (tailor made) per l'AI di uso generale e per i modelli fondamentali come GPT.
Il diritto di presentare reclami sui sistemi di AI
L’obiettivo dell’AI Act è quello di garantire che i sistemi di AI siano controllati da persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Inoltre, si vuole avere una definizione uniforme di AI che sia neutrale dal punto di vista tecnologico, in modo da poterla applicare ai sistemi di AI di oggi e di domani. Per quanto riguarda i divieti sulla sorveglianza divieti sulla sorveglianza biometrica, sul riconoscimento delle emozioni e sui sistemi AI usati per “polizia predittiva “ (predicting policing), vi rimandiamo alla newsletter che avevo scritto su quel tema: Riconoscimento facciale e generazione artificiale di immagini: come impattano sulla società?
Una delle tante domande che ci è stata posta, riguarda l’impatto reale che questo AI Act avrà sui cittadini e cittadine e sulle imprese Italiane. Analizzando l’AI Act in termini di limiti ed opportunità per cittadini ed imprese italiane evidenziamo i seguenti punti:
Limiti:
Onere aggiuntivo per le imprese: le imprese italiane che sviluppano e utilizzano AI ad alto rischio dovranno sottostare all'obbligo di preparare una valutazione d'impatto sui diritti fondamentali. Questo richiederà risorse e tempo aggiuntivi per le imprese nel processo di messa sul mercato dell'AI, potenzialmente aumentando i costi operativi.
Possibile ritiro dal mercato: se un'AI ad alto rischio non può presentare una valutazione d'impatto adeguata o se viene identificato un rischio significativo per i diritti fondamentali, l'AI dovrà essere ritirata dal mercato. Questo potrebbe comportare inconvenienti e perdite finanziarie per le imprese italiane che hanno investito nel suo sviluppo e commercializzazione.
Opportunità:
Protezione dei diritti fondamentali: la valutazione d'impatto sui diritti fondamentali mira a garantire che l'AI ad alto rischio rispetti le norme nazionali ed europee sui diritti fondamentali. Ciò offre un maggiore livello di protezione per i cittadini italiani e assicura che l'implementazione dell'AI tenga conto dei potenziali impatti negativi sui diritti delle persone.
Coinvolgimento delle parti interessate: l'obbligo di coinvolgere associazioni dei consumatori, parti sociali come i sindacati e il Garante della privacy nella valutazione d'impatto, favorisce un approccio più inclusivo e consente di prendere in considerazione le prospettive di diverse parti interessate, comprese le parti più deboli della società. Ciò può contribuire a mitigare gli effetti discriminatori e garantire una maggiore equità nell'uso dell'AI.
Standard condivisi: l'adozione di standard condivisi per la valutazione d'impatto può facilitare il processo per le startup e le PMI italiane che desiderano utilizzare AI ad alto rischio. Questo può consentire loro di comprendere meglio le implicazioni dell'AI e di valutarne gli effetti potenziali, contribuendo a una maggiore trasparenza e responsabilità nell'implementazione dell'AI.
Se vi state chiedendo come sia possibile che l’evento che si considera essere l’evento fondante dell’AI, il Dartmouth Summer Research Project on Artificial Intelligence, abbia avuto luogo nel 1956 e 67 anni dopo non esistano ancora delle leggi internazionali a riguardo, vi state facendo la domanda giusta. Ricordando soprattutto che l’AI Act è valido per l’Unione Europea e non a livello mondiale (da questo comprendiamo la reazione di OpenAI nel minacciare di togliere i propri prodotti in Europa).
Per riassumere schematicamente le tensioni attorno al tema della regolamentazione dell’AI si può dire che, da una parte le regolamentazioni sull'AI sono cruciali perché contribuiscono a garantire che l'AI venga creata e implementata in modo sicuro, etico e utilmente per la società. Dall’altra, c'è il timore che una regolamentazione eccessiva possa soffocare l'innovazione e la crescita nel campo.
Questa istanza trova “vita” soprattutto nelle aziende stesse che si occupano di AI e personalmente penso che questa sia più una retorica che realtà. Una retorica che paradossalmente confluisce nello spostare l’attenzione su temi come l’Artificial General Intelligence (AGI) e scenari catastrofici, che vengono comunicati al pubblico come eventi apocalittici che diventeranno realtà se non si ferma l’AI.
Per AGI si considera quella che in italiano chiamiamo intelligenza artificiale forte. Non esiste una definizione univoca, ma a grandi linee si può definire come la rappresentazione delle abilità cognitive umane generalizzate nel software, così che di fronte a un task sconosciuto, il sistema AGI possa trovare una soluzione. Vi invitiamo a riferirvi all’issue Multimodalità, PaLM-E, e GPT4: quali abilità mancano per arrivare all'AGI? per leggere di più su questo tema.
Spostare la narrativa dall’AI e tutte le responsabilità che le aziende hanno all’AGI, come se l’AI avesse vita propria, è un movimento paradossale da un punto di vista logico e di de-responsabilizzazione da un punto di vista etico sociale. Schematicamente il ragionamento suona così: “dobbiamo fermare l’AI che si sta tramutando in AGI e ci sta mettendo in pericolo” - “non vogliamo leggi che regolamentino l’AI”. Trovare un equilibrio tra legislazione e innovazione è fondamentale per garantire che l'AI si sviluppi in modo che benefici la società evitando rischi, ed è una sfida che dovrà essere risolta.