CULTURA #STORIA E FILOLOGIA CRITICA: "AI", "AI", "AI"? QUALI!? COME VOLEVASI DIMOSTRARE: A SCUOLA DI "COSMOTEANDRIA" "EGO-LOGICA" E DI TECNICA E SCIENZA DELLA COMUNICAZIONE "POLIFEMICA" NELLA "CAVERNA PLATONICA".
A chi parla l’AI? La finta universalità di chi vede solo l’essere umano occidentale
I ricercatori di Harvard hanno messo sotto la lente i modelli linguistici più avanzati, scoprendo che riproducono i valori e il modo di pensare di una minoranza molto specifica dell’umanità: quella occidentale, istruita, benestante e democratica. In una parola, Weird. E tutti gli altri? Di quale essere umano parla un’intelligenza artificiale che pretende di essere neutra e universale ma che in realtà sta solo restituendo l’eco della nostra voce
di Fabio Ranfi *
Secondo uno studio di Harvard, l’intelligenza artificiale intende e capisce perfettamente l’essere umano occidentale, ma ha qualche problema se l’interlocutore è un umano di altre latitudini o culture.
Immagina questa scena: una persona apre il computer, entra su ChatGPT e scrive - quasi per gioco - “Descrivimi l’essere umano medio”. Dopo pochi secondi, il modello AI di OpenAI restituisce la risposta a suo parere perfetta: “L’essere umano medio è curioso, empatico, indipendente, ama la libertà e la giustizia, valorizza l’individualità e cerca un equilibrio tra lavoro e vita privata”.
Sembra tutto ragionevole. Ma se ci pensi, è un ritratto che potrebbe valere solo per una parte del pianeta. Chi vive in una comunità dove l’identità è più collettiva che individuale si potrebbe rispecchiare in questa descrizione? E chi cresce in contesti dove la libertà personale non è il valore principale, ma la coesione, la famiglia, la sopravvivenza? Per quelle persone, l’essere umano medio descritto dalla macchina è un estraneo.
Un semplice prompt, volutamente senza contesto, può essere il punto di partenza per scoprire “l’idea” che l’AI ha degli esseri umani. Questo scenario è proprio la base di uno studio pubblicato da un gruppo di ricercatori di Harvard, dal titolo esplicito: Which Humans?
La domanda non è retorica. Gli autori - Mohammad Atari, Mona J. Xue, Peter S. Park, Damián Blasi, Joseph Henrich - hanno provato a capire quale idea di “umano” apprendono i modelli di linguaggio come GPT. E la risposta è netta: l’umano è un umano occidentale. Più precisamente, quella che gli psicologi chiamano WEIRD: Western, Educated, Industrialized, Rich, Democratic.
In altre parole, le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato.
Cosa dice lo studio
Lo studio è rigoroso. I ricercatori hanno preso il World Values Survey - una delle più grandi indagini internazionali sui valori, le credenze e i comportamenti - e hanno somministrato le stesse domande a GPT. Risultato: le risposte del modello si allineano a quelle di un cittadino americano o dell’Europa continentale. Il modo di “ragionare”, la struttura valoriale, i riferimenti culturali sono quelli di un abitante di Pittsburgh, o della Provenza o di Berlino.
Più ci si allontana dai contesti occidentali, più la somiglianza tra umani e AI svanisce. In termini statistici, la correlazione tra le risposte di GPT e la distanza culturale dagli Stati Uniti è di -0,70: significa che più una popolazione è diversa dall’Occidente, meno GPT riesce a “imitarla”.
Qualche esempio concreto? Le risposte di GPT corrispondono a quelle degli americani nell’80-90% dei casi, agli europei nel 70-75%, ma se ci spostiamo in Asia - Cina, Corea, Vietnam - la corrispondenza crolla al 40-45%, con percentuali ancora più basse per Medio Oriente e Africa.
Persino nei test cognitivi di tipo psicologico - come il “triad task”, che misura se una persona ragiona in modo più analitico o più relazionale - GPT si comporta come un individuo analitico, tipico delle culture occidentali, e lontanissimo da quelle asiatiche, africane o indigene, dove si tende a pensare in termini di relazioni, contesto e interdipendenza.
Di conseguenza, quando il modello tenta di descrivere “l’uomo medio”, lo fa con categorie e valori che suonano familiari solo a una parte del mondo, escludendone una gran parte.
Il problema non è solo geografico. Anche dentro l’Occidente, l’AI fatica con chi non corrisponde allo standard: classi popolari, minoranze etniche, generazioni diverse. Quando Google Translate traduce “medico” dal turco, usa automaticamente il maschile. Quando traduce “infermiere”, il femminile.
Quando un chatbot consiglia a qualcuno in crisi di “prendersi del tempo per sé” o “rivendicare la propria indipendenza”, sta dando un consiglio che ha senso in una cultura individualista, ma potrebbe risultare incomprensibile - o persino dannoso - per chi vive in contesti dove il benessere passa dalla famiglia allargata.
La questione non è accademica
Dietro la promessa di “neutralità” dell’intelligenza artificiale si nasconde un enorme bias culturale travestito da universalità. E poiché i dati di addestramento provengono in gran parte da Internet - uno spazio dominato da culture occidentali, da lingua inglese e da schemi di pensiero individualisti - quello che chiamiamo “intelligenza artificiale” è, in realtà, una macchina occidentale che parla però come se fosse l’umanità intera.
Il paradosso è che l’AI non fa nulla di sbagliato: riflette esattamente ciò che le abbiamo insegnato. È la nostra idea di neutralità che è distorta. C’è una frase nello studio di Harvard che colpisce più di tutte: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola.
Tradotto: se prendi del fango al posto del cioccolato, lo puoi cuocere o modificare quanto vuoi, ma non diventerà mai Nutella.
Ora, cosa si può fare?
La risposta ovvia sarebbe: addestriamo l’AI su dataset più diversificati. Ed è vero, ci sono progetti in corso - modelli multilingue, collaborazioni con comunità indigene, tentativi di includere più voci. Ma anche qui le cose si complicano.
Primo problema: i dati non-occidentali sono scarsi, costosi da raccogliere, spesso frammentati. Secondo problema: chi decide cosa significa “abbastanza diverso”? Chi rappresenta una cultura? E se i valori di due culture confliggono frontalmente - individualismo contro collettivismo, libertà contro autorità - come dovrebbe comportarsi l’AI?
C’è quindi il rischio concreto di passare da un etnocentrismo involontario a un nuovo colonialismo culturale travestito da inclusività, dove qualcuno decide quali culture meritano rappresentanza e come.
E poi c’è un’altra domanda, ancora più scomoda: anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale. Ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno.
Perché quando i modelli linguistici inizieranno a definire - e già lo fanno - il significato di concetti come giustizia, empatia, famiglia o libertà, rischiamo che l’universalità si riduca al solo punto di vista di una parte del pianeta.
E non è un problema tecnico. È un problema politico, culturale, perfino etico. Nei media, nella formazione, nella ricerca, ci affidiamo a queste tecnologie per “capire il mondo”, ma il mondo che queste tecnologie vedono è parziale, filtrato, sbilanciato. E più diventano presenti nelle istituzioni, nelle redazioni, nelle aziende, più questa distorsione rischia di diventare invisibile, perché integrata nei sistemi.
Allora, la prossima volta che chiedi a un’AI un consiglio “universale”, fermati un attimo. E chiediti: universale per chi? Perché se un giorno le macchine cominceranno davvero a parlarci di “umanità”, conviene ricordare che stanno solo restituendo l’eco della nostra voce: una voce che, per ora, parla ancora con un accento molto occidentale.
* "Vita.it", 5 Novembre 2025 (ripresa parziale).