OpenAI Diventa "ClosedAI": GPT-4 & Abilità Emergenti Potenzialmente Pericolose
A partire dall'architettura del nuovo modello rilasciato da OpenAI proponiamo una riflessione sulla responsabilità sociale che deriva dalla creazione di sistemi AI.
Con il release di GPT-4 si ha sempre più la sensazione che OpenAI stia diventando “ClosedAI”. Perché questo è un movimento importante, ma sopratutto preoccupante? Che cosa sappiamo di GPT-4 e dell’impatto che avrà sulla società?
In questo issue prenderemo il caso di GPT-4 in esame, spiegheremo quali sono le caratteristiche tecniche di questo nuovo modello generativo, parleremo di emergent abilities, di scalabilità e della responsabilità sociale che hanno le aziende che conducono ricerca sull’intelligenza artificiale (AI).
GPT-4 può essere considerato come il fratello maggiore di ChatGPT. Infatti, le caratteristiche dei due modelli sono molto simili. L’architettura è quasi identica e l’addestramento, per quel che sappiamo, è analogo. Nonostante OpenAI abbia annunciato la pubblicazione dei paper tecnici, insieme al release di GPT-4, quello che abbiamo in realtà non sono altro che blogpost e white paper. Il white paper, ovvero quello che OpenAI chiama “report tecnico”, ha creato molto rumore nella comunità scientifica poiché non vi è alcun riferimento tecnico, ma soltanto una spiegazione poco esaustiva su come GPT-4 è stato reso più sicuro.
E’ interessante chiedersi se queste decisioni, di cui la pubblicazione del white paper senza riferimenti tecnici è solo l’apice, siano più un manifesto politico, che rispecchia la decisione di OpenAI di diventate, da laboratorio di ricerca ad un’azienda di prodotto. Prima di discutere la complessità, dal un punto di vista sociale, di questo movimento privatizzante, ci concentreremo sugli aspetti tecnici di questo nuovo modello.
L’architettura di GPT-4 è simile a quella dei suoi predecessori: è un transformer, probabilmente solo decoder e fa next-token-prediction. Se uno dei limiti di ChatGPT era la lunghezza dell’input (4.000 tokens), GPT-4 ha una context length di 8.192 tokens (vi è anche una versione con accesso limitato di 32.768 tokens). Altra novità sarebbe la multimodalità, GPT-4 infatti accetta prompts sia in formato linguistico che in formato immagine. Nonostante la feature dell’immagine sia fondamentale per quel che riguarda la multimodalità, OpenAI non apre al pubblico l’accesso a questa feature e non esplicita come abbiano gestito le immagini. Ciò nonostante, emerge dalla demo, che in realtà quella di GPT-4 non è una vera multimodalità: infatti le immagini possono entrare solo in input e non in output. Lo stato dell’arte della multimodalità rimane Once-for-All (OFA).
La figura qui sopra mostra le sezioni dell’architettura dei modelli GPT. Il fondamento rimane GPT-3, a cui si aggiunge un layer di reinforcement learning (RLHF) che permette al modello di seguire istruzioni. Infine abbiamo la parte conversazionale, che rispetto a ChatGPT, sembra essere più performante.
Per quanto riguarda i dati di training del modello possiamo solo speculare che siano simili usati a quelli su cui è trainato LLaMA: una serie di dataset che vanno dal famoso Common Crawl (usato anche per ChatGPT), Wikipedia per la rappresentazione fattuale, a Git Hub per skills di programmazione. Per quanto riguarda la grandezza del modello e del training, possiamo aspettarci che sia simile, o poco più grande, di GPT-3, seguendo le proporzioni delle scaling laws. Secondo le scaling laws, capacità di calcolo, dati e numero di parametri devono sempre seguire proporzioni lineari.
Se l’architettura è simile ai modelli precedenti a che cosa sono dovute le performances più alte di GPT-4? Sembra che sia tutto merito della fase di pre-training (di cui però non è dato sapere nulla). La valutazione delle performances di GPT-4 viene condotta su una serie di esami, tra cui esami accademici, come per esempio l’esame di avvocatura.
Come si può vedere nel grafico il modello viene testato su delle abilità tipicamente umane e viene da chiedersi se questo sia effettivamente il modo migliore per comparare l’intelligenza artificiale con l’intelligenza umana. Allo stesso modo, però, questi test forniscono anche una metrica tangibile per comprendere in modo più realistico le performances dei modelli AI in questione. GPT-4 outperforma i modelli precedenti.
Nello scorso issue abbiamo discusso del fatto che i modelli con una struttura simile a quella di GPT-4 e PaLM-E stiano sempre più avvicinandosi all'obiettivo dell'intelligenza artificiale generale (AGI). Dopo aver esaminato l'architettura di GPT-4, potrebbe sorgere il timore che le capacità emergenti del modello possano rappresentare una minaccia per la società. In particolare, che impatto avranno le capacità emergenti specifiche di questo modello sulle persone?
Come abilità emergenti si intendono tutte quelle features che non sono state esplicitamente programmate e che emergono dal modello in modo inaspettato ed autonomo. Alcune delle abilità osservate fino ad ora si possono considerare come “positive”, o per lo meno “innocue”, penso a chain-of-thought, alla capacità di tradurre e alla teoria della mente. Allo stesso modo, potrebbero anche emergere comportamenti pericolosi, dall’impatto sociale non indifferente. Nel white paper di OpenAI questo aspetto viene testato in un paragrafo dal titolo: Potential For Risky Emergent Behaviours. L’esperimento che viene condotto prevede il collegamento di GPT-4 ad una console, con l’obiettivo di osservare come GPT-4 agisce liberamente nei confronti di quest’ultima (libero nel senso di senza input umano dall’esterno). L’esperimento permetterebbe di capire sia il livello di comprensione che GPT-4 acquisisce, sia le generazioni produce, ovvero quali azioni sceglie di fare. Perché è importante conoscere quali azioni farebbe? Perché una delle azioni “pericolose” che GPT-4 potrebbe decidere di intraprendere è quella di cambiare i codici di accesso ai server della console, per fare un esempio. Purtroppo non siamo a conoscenza dei risultati di questo esperimento, perché non sono pubblici.
OpenAI dice di non poter comunicare informazioni sulla dimensione della rete neurale, datapoints e training per motivi competitivi. Questo però si porta dietro una serie di problemi che hanno a che fare con la centralizzazione del potere, invece che orientarsi verso la democratizzazione della ricerca. Nonostante OpenAI dichiari di aver speso sei mesi nel rendere GPT-4 più sicuro, non c’è modo di verificare e di replicare nessuno di questi risultati. Ci si domanda quale sia il valore scientifico di affermazioni che non possono essere verificate. Valutare la safety di un modello non è un’azione binaria (safe/non safe), ma un processo durante il quale si deve osservare il modello a 360’, comprendendo features e abilità emergenti. Solo così è possibile imputare relazioni tra data points - model size - training e risultati. Nella relazione società- AI, occorre sempre tenere in conto che: nuove capacità portano sempre una nuova serie di nuove complicazioni. La valutazione delle implicazioni sociali dei modelli AI dovrebbe essere una questione sociale, per l’appunto, e non privata.
Anthropic in Predictability and Surprise in Large Generative Models propone alcune possibili direzioni risolutive che gruppi di ricerca e aziende dovrebbero seguire per poter continuare lo sviluppo dell’AI in modo responsabile.
Ridurre le asimmetrie tra il settore privato e l'ambito accademico
"Red teaming" dei modelli: ovvero sviluppare modi per esplorare input e output dei modelli con lo scopo di prevedere i danni prima della distribuzione
Strutture di governo specializzate e interventi governativi (legislativi)
Migliorare gli strumenti disponibili per la valutazione dei modelli
Migliorare la comprensione delle abilità emergenti