Demistificare l’AI: il rumore calcolato attorno a ChatGPT

Per fare un uso consapevole degli strumenti di Intelligenza Artificiale (AI), è importante partire dalle condizioni materiali che li hanno portati alla luce: le tecnologie AI non sono emerse dal nulla; sono il prodotto di una lunga storia di ricerca ad accesso aperto (open-access) sottoposta a peer-review, finanziata in gran parte da fondi pubblici. Questo è il patrimonio di conoscenza che ha fornito le basi su cui le corporation hanno costruito i loro modelli AI e stanno attualmente realizzando profitti.

Le nuove tecnologie di risparmio del tempo rendono la maggior parte dei lavoratori più produttivi, non più liberi, in un mondo che sembra accelerare attorno a loro. La retorica poi dell’efficienza attorno a queste tecnologie suggerisce che ciò che non può essere quantificato non abbia valore — cioè quell’ampia gamma di piaceri che rientrano nella categoria del non fare nulla in particolare, del sognare ad occhi aperti, dell’osservare le nuvole, del vagabondare, del fare shopping senza comprare, non sono altro che vuoti da riempire con qualcosa di più definito, più produttivo, o più veloce…
– Rebecca Solnit, Wanderlust, 2000.

Ho scritto questo articolo utilizzando ampiamente ChatGPT, alimentandolo con estratti da fonti selezionate manualmente ed intervallate da numerosi pensieri e ragionamenti personali. Ho poi modificato iterativamente e pesantemente l’output, e ho aggiunto nuovo contenuto.

Output di ChatGPT-4 (versione del 12 maggio) ottenuto dal prompt strutturato (sopra).

L’ultimo report pubblicato da OpenAI, l’azienda che ha sviluppato ChatGPT, non è stato né sottoposto a revisione paritaria né è realmente aperto, contrariamente all’aggettivo ‘open’, poiché non sono stati forniti modello o codice per l’utilizzo e l’analisi. Oltretutto, OpenAI sta cercando di registrare il marchio ‘GPT’, nonostante questo acronimo non sia di sua proprietà, ma sia usato nella comunità scientifica per denotare l’architettura degli attuali modelli linguistici (LLM). Questo avviene in un momento in cui persino altri giganti tecnologici come Meta hanno invece optato per una maggiore trasparenza, rilasciando i loro modelli e il codice associato. 

Sebbene le compagnie Big Tech siano molto caute nel divulgare esattamente come spendono i loro soldi, le recenti tendenze hanno indicato che Alphabet, Meta, Microsoft, Amazon e Apple stanno costantemente aumentando i loro investimenti in ricerca e sviluppo. Tuttavia c’è stato un forte calo nel numero di startup che ricevono finanziamenti: una tendenza che punta chiaramente verso la monopolizzazione. Anche la recente proposta di regolamentazione governativa da parte del CEO di OpenAI potrebbe portare a una ulteriore centralizzazione del potere produttivo, poiché i costi legali necessari per ottenere tali licenze sarebbero solo a portata di corporation ben finanziate. Nonostante tutto questo, c’è ancora speranza. Come evidenziato in un documento trapelato anonimamente da Google, la ricerca open-source sta tenendo il passo, peraltro a costi molto più ridotti, dimostrando il potenziale dell’innovazione decentralizzata.

Anche il percorso dalla ricerca alla distribuzione dei prodotti commerciali è estremamente problematico, dato che l’enorme quantità di dati necessari per addestrare i sistemi AI viene spesso raccolta da internet senza il consenso dei suoi creatori, sollevando tutta una serie di questioni etiche e legali. Per di più, abbondano esempi di palese sfruttamento durante la raccolta dei dati, come il caso dei lavoratori kenioti pagati meno di $2 all’ora da OpenAI per migliorare le prestazioni di ChatGPT, o la famigerata piattaforma Amazon Mechanical Turk, ampiamente utilizzata per l’annotazione dei dati e spesso descritta come una “miniera di carbone” digitale[1].

Inoltre la maggior parte dei modelli AI, nonostante vengano distribuiti a livello globale, sono addestrati utilizzando set di dati provenienti prevalentemente da paesi occidentali: questa discrepanza esaspera il potenziale di pregiudizi razziali e di genere nei sistemi di AI. Come afferma Alex Hanna, direttrice dell’Istituto DAIR, questa problematica è particolarmente evidente nei sistemi di riconoscimento facciale che spesso rivelano pregiudizi contro le donne nere. Allo stesso modo, gli algoritmi AI utilizzati per allocare finanziamenti medici privati (negli USA) possono svantaggiare in modo sproporzionato i pazienti neri a causa dei dati di input non rappresentativi. Le autorità dell’Unione Europea già utilizzano tecnologie simili per la sorveglianza dei confini, alimentando violenza e oppressione sistemica verso i migranti. Per garantire una vera equità, è necessario un approccio che vada oltre la semplice comparazione delle metriche di performance, e, come suggerito ad esempio dal femminismo nero, prenda in considerazione i sistemi intersezionali di potere e oppressione.. Questo tipo di approccio inclusivo era adottato dal team etico di Twitter, prima della sua dissoluzione voluta da Elon Musk, ironicamente anche noto per le sue preoccupazioni espresse riguardo ai rischi dell’AI.

L’eticista Timnit Gebru, licenziata da Google per aver evidenziato i rischi intrinseci dei LLM, ha criticato le aziende tecnologiche perché non contemplano l’etica come una parte fondamentale della ricerca e sviluppo di questi sistemi. La maggior parte delle principali aziende tecnologiche sta infatti licenziando i propri eticisti; è evidente che non si può fare affidamento sulla buona volontà del settore privato: mentre combinare lo sviluppo intersezionale con una regolamentazione globalmente coesa è fondamentale per realizzare un’AI equa e decolonizzata. Le misure di regolamentazione sono necessarie, e l’Unione Europea ha aperto la strada con il GDPR (che ha indotto il Garante italiano a vietare temporaneamente ChatGPT) e l’AI Act (cosa che a Google chiaramente non piace). Anche gli Stati Uniti hanno fatto qualche progresso con l’Algorithmic Accountability Act.

Purtroppo, ci sono molti critici, sia a sinistra che a destra, che sostengono che “troppa regolamentazione” ostacolerebbe il progresso. A queste persone vorrei chiedere: cos’è esattamente l’innovazione e a chi è destinata?

Oltre alle preoccupanti questioni di bias (distorsioni o pregiudizi) nei dati di addestramento, gli LLM allo stato dell’arte presentano altre gravi limitazioni. Ad esempio, proprio per come sono costruiti, questi modelli sono incapaci di scrivere barzellette. Le barzellette fanno ridere perché c’è uno spiazzamento logico finale, ma, contrariamente al modo in cui noi umani comunichiamo, gli LLM generano token (parole o parti di parole) uno alla volta, e ognuno di essi è condizionato solamente da quelli precedenti. Il motto di spirito per ora non gli appartiene. Yann LeCun, che nel 2018 ha vinto il Turing Award (il Nobel dell’informatica), ha da parte sua criticato i modelli autoregressivi (l’architettura degli LLM più avanzati) a causa della loro incontrollabilità e del fatto che soffrono di “divergenza esponenziale,” un fenomeno per cui gli errori nel testo generato si accumulano e crescono esponenzialmente man mano che vengono generate sempre più parole. Questi modelli non sanno riconoscere quando stanno operando al di là della loro base di conoscenza. In altre parole, possono comportarsi come imbecilli incredibilmente sicuri di sé che non si rendono conto quando stanno dicendo sciocchezze: sono le famose “allucinazioni”. Va da sé, quindi, che ogni volta che si utilizza un LLM, si dovrebbe sempre ricontrollare l’output. E se non si hanno conoscenze sufficienti per verificare il contenuto generato, allora semplicemente non si dovrebbero utilizzare questi modelli per tali compiti. È famoso il caso di un avvocato americano che si è avvalso di ChatGPT per fare ricerca legale e che al processo ha presentato una serie di precedenti che in realtà non esistevano!

Lo storytelling dominante sta invece spingendo narrative mistificanti sull’antropomorfizzazione dell’AI. A suo favore gioca un comune errore nell’interpretazione del “test di Turing”. L’errata interpretazione è pensare che se un umano in una conversazione con una macchina non riesce a identificarla come tale, ciò significa che la macchina è in qualche modo autoconsapevole e simile a un essere umano. In realtà, Turing non cercava di rispondere alla domanda se le macchine possano pensare o no; piuttosto sottolineava la capacità di un essere umano di differenziare nell’interlocutore tra un computer e un altro essere umano, ritenendo di fatto irrilevante la domanda “le macchine possono pensare?”

L’uso eccessivo e improprio di termini come “intelligenza artificiale” spesso oscura il reale funzionamento di queste tecnologie e le dinamiche di potere della loro produzione. Tali enunciati, che alla fine diventano vuoti luoghi comuni, contribuiscono a una mancanza di comprensione e alla loro accettazione acritica. C’è così tanto rumore lì fuori che anche gli addetti ai lavori fanno fatica a capire cosa sia vera ricerca e cosa sia solo clamore, come ad esempio le tanto paventate “proprietà emergenti” degli LLM. Per capacità emergenti si intendono abilità che un modello non è stato addestrato o progettato per possedere, e che non possono essere previste semplicemente estrapolando i miglioramenti delle prestazioni dei modelli su scala ridotta, come ad esempio in biologia non si può prevedere il comportamento di uno sciame d’api a partire dal singolo insetto. Capacità che quindi apparirebbero improvvisamente man mano che si creano modelli sempre più grandi in riferimento al numero di neuroni artificiali e alla quantità di dati di addestramento. Tali comportamenti imprevedibili sarebbero chiaramente molto preoccupanti, se fossero veri, in quanto ciò implicherebbe che una mente artificiale —dotata di coscienza e intelligenza sovraumane— potrebbe emergere di punto in bianco, ponendo quindi rischi esistenziali per l’umanità. Al contrario, ricercatori di Stanford hanno dimostrato come molte di queste affermazioni fossero nient’altro che un “miraggio” prodotto dal modo in cui questi presunti fenomeni erano stati misurati. L’autore principale dello studio di Stanford ha brevemente concluso che “non abbiamo prove per suggerire che il tutto sia maggiore della somma delle sue parti”.

Simili discorsi mistificatori sull’intelligenza artificiale sono chiaramente una forma di feticismo tecnologico in cui una tecnologia, dotata di poteri supremi, sembra scendere dall’alto, rivoluzionando la società. Sia gli scenari apocalittici evocati da personaggi come Elon Musk, sia la propaganda sensazionalista gestita dalle grandi aziende tecnologiche (o spesso anche da un misto di questi due falsi opposti) alimentano tale feticismo, contribuendo di fatto alla concentrazione del potere nelle mani di poche corporation che nell’immaginario collettivo diventano le uniche autorità legittimate a sapere come funzionano queste macchine. Anche la tanto discussa lettera aperta firmata da oltre 1.000 leader del settore tecnologico (fra i quali Musk) non solo contribuisce al rumore alludendo a scenari apocalittici ma di fatto si aggiunge ai molto tentativi calcolati di deviare gli enti regolatori e l’opinione pubblica. Tutte queste diversioni servono forse a spostare l’attenzione dal fatto che una ricerca veramente etica sarebbe troppo costosa per gli attuali modelli di business?

Mentre i catastrofisti evocano scenari alla Terminator, i pericoli più seri provengono invece dall’abuso di questi modelli già entrati nel mercato con poca o nessuna regolamentazione. Allo stato attuale della tecnologia semplicemente non possiamo controllarli, facendo quindi spazio per nuovi tipi di attacchi informatici, come automatizzare il phishing o aiutare a scrivere e diffondere malware e disinformazione. Pertanto, gli LLM non dovrebbero essere utilizzati per operazioni sensibili come il supporto legale o medico, almeno non ancora. Invece, simili applicazioni sono esattamente quelle che molte start-up e aziende stanno già sviluppando ed è sempre più evidente che non si può pensare che questi aspetti vengano regolati spontaneamente dal “mercato”.

L’uso consapevole dell’AI va oltre la sicurezza, incorpora sfere etiche, morali e ideologiche. Richiede una comprensione completa delle origini di questa tecnologia, del suo funzionamento e delle sue implicazioni. Ci richiede di riconoscere e sfidare le dinamiche di potere incorporate nella tecnologia e nel suo uso. Gestire responsabilmente le attuali limitazioni degli LLM significa anche riconoscere i nostri limiti e i bias cognitivi, poiché la ricerca mostra che tendiamo a fidarci troppo di questi strumenti, anche quando siamo consapevoli dei rischi intrinseci.

Man mano che questa tecnologia diventa sempre più integrata nelle nostre vite, dobbiamo sfidare le narrative deterministiche che la circondano e spingere per pratiche più egualitarie e trasparenti. Il futuro dell’AI non dovrebbe essere dettato unicamente dagli interessi corporativi o da un ristretto insieme di prospettive occidentali, ma essere plasmato e regolamentato da una comunità globale e diversificata dedicata al bene comune. L’annuncio da parte dell’Allen Institute for AI di modelli all’avanguardia open source, costruiti da scienziati per scienziati, è un passo promettente nella giusta direzione.

Infine a proposito della temuta disoccupazione di massa per effetto dello sviluppo di queste tecnologie, parafrasando Marx si può ripetere che il problema non sta esattamente nelle tecnologie stesse (mezzi di produzione), ma nel sistema di organizzazione della società, del lavoro e della distribuzione della ricchezza (modo di produzione). Marx supponeva che man mano che il ‘lavoro vivo’ degli umani diminuisce come fonte di ricchezza, il tempo di lavoro dovrebbe necessariamente smettere di essere la misura della ricchezza: di conseguenza, la produzione basata sul valore di scambio crollerebbe. Questa osservazione provocatoria è riemersa nelle discussioni contemporanee sul futuro del capitalismo nell’era dell’AI, suggerendo possibilità trasformative[2]. Una di queste misure trasformative proposte è il reddito di base universale. In un quadro adeguatamente regolamentato, potrebbe fungere da tampone contro le possibili perturbazioni sociali causate dalla disoccupazione di massa, a condizione che vengano attuate regolamentazioni (come ad esempio tasse più elevate per i ceti abbienti e controllo degli affitti) e per prevenire il dirottamento di fondi pubblici nel settore privato.

Leggi anche:  Chomsky o il melodrama tecnofobico
  1. Fort, K., Adda, G. and Cohen, K.B., 2011. Amazon Mechanical Turk: Gold mine or coal mine?. Computational Linguistics, pp.413-420.
  2. Butollo, F., Nuss, S., Herrmann, J.P. and Raafat, N., 2022. Marx and the robots: networked production, AI and human labour. Pluto Press. pp. 1-8.