- Ragioni di Stato - http://www.ragionidistato.it -

Il futuro delle persone e le scelte dell’Intelligenza Artificiale

Il tre dicembre del 2020 Timnit Gebru [1], una delle più importanti ricercatrici nel campo dell’etica della tecnologia, ha scritto su Twitter [2] di essere stata licenziata da Google. Gebru, che aveva la leadership condivisa del team di etica dell’intelligenza artificiale all’interno dell’azienda di Mountain View, sarebbe stata allontanata dopo aver scritto assieme ad altri colleghi un articolo accademico in cui si criticano diversi aspetti — etici, tecnici e sociali — dell’utilizzo dell’intelligenza artificiale.

La notizia, di per sé singolare, mette insieme diversi elementi di interesse: Timnit Gebru è una scienziata molto stimata, oltre a essere una donna nera che lavora in un ambiente high-tech ancora sostanzialmente dominato da uomini. Il motivo del suo allontanamento da Google pare essere collegato ai contenuti del suo paper, nel quale accusava dall’interno Google di essere poco trasparente nel definire i criteri in base ai quali i suoi algoritmi di intelligenza artificiale funzionano e, anzi, avanzava il fondato sospetto che la loro progettazione non intervenisse in alcun modo nel contrastare bias e pregiudizi relativi a sessualità, genere e origine etnica. In sostanza, Gebru e i suoi colleghi si focalizzano sul tema della discriminazione razziale e della marginalizzazione delle minoranze: secondo il gruppo di studio, un approccio statistico acritico sull’intelligenza artificiale rischia di portare a una sotto-rappresentazione dei gruppi minoritari e a una sempre maggiore sovra-rappresentazione dei gruppi maggioritari. Questo avverrebbe proprio a causa dei grandi modelli che aziende come Google mettono in campo per emulare il comportamento delle intelligenze umane.

Il caso che si è generato attorno al lavoro di Gebru, però, ci mette di fronte a una problematica ben più vasta relativa alle scelte riguardanti lo sviluppo e la commercializzazione delle intelligenze artificiali, un tema di rilevanza storica: quello del posto delle persone in una società nella quale le intelligenze artificiali possono replicare alcune delle loro funzioni. Non dobbiamo dimenticare che, confrontandosi con le accuse della ricercatrice, Google ha risposto prima con una sostanziale censura e poi con il licenziamento. In attesa di leggere il paper, attualmente in peer review, è possibile farsi un’idea del suo contenuto generale attraverso un riassunto pubblicato sul blog del MIT [3]. In sostanza, Gebru e il suo gruppo di ricerca muovono diverse critiche all’utilizzo dei grandi modelli di elaborazione del linguaggio sviluppati da chi si occupa di intelligenza artificiale: le IA vengono addestrate a riconoscere e manipolare il linguaggio naturale usando come base per l’addestramento un’enorme quantità di materiale testuale, che di solito è preso da internet. Questa tecnica ha un enorme successo nell’industria per motivi insieme economici e funzionali: è più semplice prendere testi messi a disposizione dagli stessi utenti (senza quindi dover pagare per averli) per far sì che le IA imparino attraverso di essi a emulare il funzionamento del linguaggio naturale (senza dovergli quindi spiegare da zero come si parla). 

Nel campo dell’intelligenza artificiale, da ormai trent’anni si preferisce un approccio più pragmatico allo sviluppo delle IA, denominato intelligenza artificiale debole [4]: non occorre che esse pensino davvero, basta solo che si comportino come se lo facessero. Seguendo un approccio comportamentista, il software è “addestrato” a eseguire compiti specifici, tramite l’esposizione a grandi set di dati: esso “impara” a distinguere i risultati preferibili in base a un sistema che attribuisce una scala di punti ai risultati “migliori” e, dunque, comincia a presentare e a “scegliere” i risultati che statisticamente assomigliano di più ai risultati preferibili (cioè quelli con i punteggi più alti).

È stato Noam Chomsky [5] a sottolineare come il campo di studi sull’intelligenza artificiale abbia sostanzialmente adottato un approccio che ricorda il comportamentismo, anche se in in una forma più moderna e computazionalmente sofisticata. In sostanza, da ormai quasi trent’anni, non importa a nessuno (il che vuol dire: né a chi progetta, né a chi vende, né a chi usa le intelligenze artificiali) se i computer siano veramente intelligenti oppure se capiscano realmente cosa diciamo, a patto che si comportino come se lo facessero, ovvero che rispondano ai nostri comandi – ed è qui che entrano in gioco i modelli di elaborazione del linguaggio che operano grazie all’intelligenza artificiale 

Uno dei modelli di elaborazione del linguaggio più sofisticati, chiamato BERT, è integrato da Google stessa nel suo sistema di ricerca: grazie all’intelligenza artificiale, Google riesce a comprendere il contesto nel quale sono usate le chiavi di ricerca e a fornire risultati più pertinenti. Tuttavia, secondo Gebru e il suo gruppo, addestrare queste intelligenze artificiali con enormi quantità di testi raccolti da internet può essere molto pericoloso: la loro mole è tale che è impossibile vagliarli e, per conseguenza, è molto probabile che al loro interno finiscano testi sessisti, razzisti e violenti. Il risultato è che il motore di ricerca suggerisce come preferibili – perché statisticamente più rilevanti – risultati che non si pongono il problema del linguaggio utilizzato e, retroattivamente, che gli utenti fruendo di quei contenuti ritengano quel linguaggio e quei concetti sostanzialmente accettabili.

Al di là di quella che potrà essere la conclusione della faccenda, non sembra affatto un caso che la discussione sull’etica dell’IA si sia concentrata attorno a BERT e all’analisi del linguaggio naturale: si tratta infatti di una battaglia cruciale nello sviluppo normativo, scientifico e spirituale per l’avvenire dell’umanità. Scegliere di adottare un determinato modello di intelligenza e di linguaggio può avere effetti e ricadute pratiche enormi sullo sviluppo di un algoritmo usato per dare risposte alle domande di miliardi di utenti al giorno: Google è di fatto capace di plasmare la realtà sociale, economica, spirituale di miliardi di persone contemporaneamente e numerosissime volte al giorno, semplicemente perché seleziona (per noi) le informazioni a cui abbiamo accesso. E lo stesso possono fare Facebook, Apple, Amazon e Microsoft. Non è solo una questione di responsabilità morale, è anche un problema legato a quali siano i presupposti sulla base dei quali queste aziende scelgono di progettare le proprie macchine.

Non dimentichiamoci che, non possedendo una teoria chiara di che cosa sia l’intelligenza non-artificiale, le scelte in termini di IA possono funzionare, retroattivamente, da modello per definire come debba essere e debba funzionare l’intelligenza umana, in quel continuo scambio tra interno ed esterno, tra “datum” e “artificium” che connota l’esperienza umana.

Ma su quali teorie dell’intelligenza poggiano oggi gli sviluppi dell’IA di cui anche BERT è, in qualche modo, il prodotto finale? Fino agli anni ’90 il tema dell’IA era prevalentemente dominato dalla finalità di rispondere a domande facilmente matematizzabili come teoremi, algoritmi, giochi matematici, scacchi, etc. ma col passare degli anni è divenuta sempre più impellente la necessità di affrontare il tema del linguaggio naturale e, con esso, la sua comprensione e l’elaborazione di risposte. Il modello generalmente utilizzato per farlo è stato quello cognitivista, giacché presentava molte analogie tra il funzionamento del cervello umano e quello delle macchine teoriche.

Nel suo saggio “From the Market of Information to the Pharmacology of the Gift1” Daniel Ross ha cercato di tracciare una traiettoria del cognitivismo applicato all’informatica, evidenziando le relazioni ideologiche che esso ha con le teorie economiche di stampo schumpeteriano. Per Ross esiste un forte nesso ideologico che collega la matematizzabilità dei processi cognitivi individuali e l’organizational behaviour. Tale nesso si basa su una serie di presupposti comuni e di analogie tra le diverse correnti di pensiero.

Anzitutto, tanto il cognitivismo quanto le teorie sulla IA condividono la convinzione che cervello e computer lavorino in modo simile, cioè a partire dall’elaborazione di operazioni logiche. In secondo luogo, l’organizational behaviour definisce il mercato nei termini di un enorme meccanismo computazionale autoregolato, nel quale operatori razionali fanno scelte logiche basate sul minore sforzo per il maggior risultato. Tale spazio computazionale funziona meglio via via che viene “liberato” dalle istituzioni sociali, anche laddove queste erano state istituite proprio per favorirne l’operatività: esattamente come avviene nella teoria dell’informazione, affinché le informazioni circolino liberamente ed efficacemente è necessario e opportuno eliminare tutti gli elementi di frizione. Infine, per entrambe le prospettive teoriche lo sfruttamento della libertà prodotta dall’eliminazione degli ostacoli ha il fine di automatizzare le risposte individuali e collettive, in modo da rendere prevedibili e profittevoli i comportamenti dei singoli operatori. 

Tali analogie non sono casuali: la teoria della scelta razionale fu uno dei principali campi di studio di Herbert Simon, economista neoliberale, ma anche un pioniere dell’intelligenza artificiale che, negli anni ‘50, creò assieme a Allen Newell i programmi “Logic Theory Machine” e “General Problem Solver”.

Simon lavorò a lungo con Friedrich Von Hayek all’elaborazione della cosiddetta “teoria neoliberale” sostenuta dalla Mount Pelerin Society. Com’è noto, Hayek, economista neoliberale di chiara fama e padre della teoria della scelta razionale, fu autore del monumentale testo “L’uso della conoscenza in società2”, citato da diversi innovatori della Silicon Valley [6] tra i propri maggiori riferimenti culturali.

Tanto per Hayek quanto per Simon, il lavoro di costruzione di una teoria neoliberale fu basato sul mercato concepito come sistema di informazioni: all’interno di questo sistema tutto ciò che è utile è calcolabile e scambiabile in termini di informazione. Il mercato, insomma, non è soltanto basato sulla compravendita di oggetti e beni, ma è un modello sociale fondato sullo scambio, tanto di beni materiali quanto di beni immateriali. Tanto Hayek quanto Simon, inoltre, descrivevano la democrazia – di cui furono sempre strenui difensori – come uno spazio all’interno del quale le informazioni possono circolare liberamente. Tale libertà, nel loro pensiero, ha come modello la circolazione di beni e merci: è infatti la libertà di scegliere tra beni omogenei e calcolabili, che hanno necessariamente un valore omogeneo e comparabile, schiacciando di fatto ogni differenza incalcolabile. Si tratta, insomma, della libertà di scegliere tra valori uniformi e omogenei, distribuiti di fatto su un’unica scala di valori, quella del valore di mercato per Hayek, quella della quantità di informazioni per Simon3.

Ovviamente i due percorsi teorici, quello della teoria economica e quello dell’intelligenza artificiale, si sono fortemente intrecciati e influenzati reciprocamente. A partire dagli anni ’70, ricercatori di entrambi gli orientamenti si sono addirittura ritrovati a lavorare negli stessi laboratori e per le stesse finalità: creare dei sistemi informatici che sostituissero l’uomo, non per realizzare un universo distopico governato da macchine in stile Terminator o Matrix, ma semplicemente per pagare meno dipendenti possibili.

Nel suo testo Le persone non servono4, dedicato all’emergere dell’IA come elemento di rottura sociale oltre che tecnologica, Jerry Kaplan si focalizza proprio su questo enorme nesso di funzionamento tra capitalismo e tecnologia, portando la propria testimonianza di ricercatore sulla IA divenuto poi investitore della Silicon Valley. 

Ed è forse Kaplan, nel suo freddo razionalismo tipico della Valley, a presentarci il rischio più impellente nell’aver adottato e preferito questo approccio: l’ossessione per il risultato a discapito della profondità delle problematiche umane ci ha fatto creare delle mere macchine statistiche, del tutto indifferenti rispetto alle conseguenze morali delle loro scelte. Prendiamo due esempi per capire in che modo tutto ciò può avere, e in parte sta già avendo, delle conseguenze moralmente imprevedibili: i veicoli a guida assistita e l’elaborazione automatica di testi. 

Nel primo caso, è abbastanza ovvio che gli enormi investimenti che società come Tesla e Uber [7] stanno implementando nel campo delle self-driving car non serviranno primariamente per dotare le utilitarie di sistemi di guida assistita: certo, accadrà, ma il mercato primario, per Tesla, sarà quello della distribuzione di merci su gomma sulle lunghe percorrenze, mentre per Uber si tratterà di automatizzare il trasporto di persone all’interno delle città. Il risultato sarà la perdita di milioni di posti di lavoro, quelli dei driver, che non avranno posto in un’equazione estremamente appetitosa per chi investe in quel mercato che, sfruttando l’IA, sarà “alleggerito” di miliardi di dollari di costi. La stessa Amazon ha di recente acquisito Zoox [8], una società specializzata nei software di guida autonoma, ed è molto probabile che utilizzi quelle tecnologie per cominciare a creare dei sistemi di consegna senza driver.

Nel secondo caso, proprio in questi giorni si sono visti i primi risultati di una IA per certi versi indistinguibile dalla scrittura umana [9], anche in italiano: come ha sottolineato il mio amico e professionista del digitale Dario Caregnato, un automatismo di questo genere possiede dei rischi molto alti di trasformarsi in una vera e propria fabbrica di fake news e truffe di vario genere nel giro di pochi giorni, dato che può essere usato in maniera scalare: se per scrivere 100 articoli in un giorno ho tendenzialmente bisogno di 100 operatori umani, con questo software ho bisogno di pochi secondi e mi “bastano” pochi revisori che correggano il tiro. Anche in questo caso, il “risparmio” in termini di tempi e stipendi è orientato alla performance: se una macchina può svolgere il lavoro in una maniera apparentemente identica a un essere umano e a un prezzo infinitamente inferiore, perché a qualcuno dovrebbe importare che sia una persona a farlo?

In questi esempi, le scelte morali e le conseguenze di quelle scelte potranno fare la differenza tra una società più ricca e una dove, letteralmente, le persone non servono. Questo avviene perché in un confronto tra un’intelligenza umana e una replicabile all’infinito e moltiplicabile a costi ridicoli, la prima sarà sempre sconfitta in partenza. 

L’assenza di un quadro normativo di riferimento, in tal senso, è solo uno degli elementi problematici: quello che manca, a livello politico e culturale, è una riflessione generalizzata e condivisa su questo tema che, a livello globale, possa aiutarci a inquadrare i nuovi problemi che tutto ciò ci porterà e tutte le scelte che ci si porranno davanti. E non sto certo parlando delle scelte che faranno le IA: parlo di quelle degli uomini che stanno dentro le aziende che le sviluppano, che le programmano, che le addestrano, che le vendono. 

E che impediscono a ricercatrici come Timnit Gebru di sollevare anche solo un dubbio sul fatto che sia questo ciò che ci prepariamo a definire come intelligenza.

Note

1 – Daniel Ross, “From the Market of Information to the Pharmacology of the Gift”, disponibile all’indirizzo http://bit.ly/3mOsRFU
2 –  Friedrich A. von Hayek, «L’uso della conoscenza in società» in Friedrich August von Hayek, Conoscenza, mercato, pianificazione, Bologna, il Mulino, 1988, pp. 278-292.
3 –  Cfr. Bernard Stiegler, “Noodiversity Technodiveristy, elements of a new economic foundation based on a new foundation for theoretical computer science”, in Angelaki vol. 25, 2020
4 – Jerry Kaplan, Le persone non servono. Lavoro e ricchezza nell’epoca dell’intelligenza artificiale, LUISS University Press, Roma 2016