Inviare un messaggio

In risposta a:
Pianeta Terra. Sull’uscita dallo stato di minorità, oggi......

LO SPIRITO CRITICO E L’AMORE CONOSCITIVO. LA LEZIONE DEL ’68 (E DELL ’89). Un omaggio a Kurt H. Wolff e a Barrington Moore Jr. - di Federico La Sala

giovedì 12 febbraio 2026 di Maria Paola Falchinelli
[...] Contro ogni illusione di continuità di istituzioni e di divinità, un fatto resta determinante. Siamo giunti a un grado zero di civiltà. La secolarizzazione non è stata uno scherzo: non solo «Dio è morto» ma anche l’Uomo. Il lungo processo storico che in Europa e nel mondo, almeno dal XVIII secolo, ha innescato la contrapposizione delle diverse forme del contesto sociale all’individuo come un puro strumento per i suoi scopi privati, come una necessità esteriore, e, nel contempo, ha (...)

In risposta a:

> LO SPIRITO CRITICO E L’AMORE CONOSCITIVO. --- A CHI PARLA L’AI?!: LA "MATEMATICA" DELLA "INTELLIGENZA ARTIFICIALE" E UNO STUDIO DI HARVARD. La finta universalità di chi vede solo l’essere umano occidentale di Fabio Ranfi).

domenica 9 novembre 2025

CULTURA #STORIA E FILOLOGIA CRITICA: "AI", "AI", "AI"? QUALI!? COME VOLEVASI DIMOSTRARE: A SCUOLA DI "COSMOTEANDRIA" "EGO-LOGICA" E DI TECNICA E SCIENZA DELLA COMUNICAZIONE "POLIFEMICA" NELLA "CAVERNA PLATONICA".

      • Un "invito" a riflettere su una #hamletica #questione #accademica...


A chi parla l’AI? La finta universalità di chi vede solo l’essere umano occidentale

I ricercatori di Harvard hanno messo sotto la lente i modelli linguistici più avanzati, scoprendo che riproducono i valori e il modo di pensare di una minoranza molto specifica dell’umanità: quella occidentale, istruita, benestante e democratica. In una parola, Weird. E tutti gli altri? Di quale essere umano parla un’intelligenza artificiale che pretende di essere neutra e universale ma che in realtà sta solo restituendo l’eco della nostra voce

di Fabio Ranfi *

Secondo uno studio di Harvard, l’intelligenza artificiale intende e capisce perfettamente l’essere umano occidentale, ma ha qualche problema se l’interlocutore è un umano di altre latitudini o culture.

Immagina questa scena: una persona apre il computer, entra su ChatGPT e scrive - quasi per gioco - “Descrivimi l’essere umano medio”. Dopo pochi secondi, il modello AI di OpenAI restituisce la risposta a suo parere perfetta: “L’essere umano medio è curioso, empatico, indipendente, ama la libertà e la giustizia, valorizza l’individualità e cerca un equilibrio tra lavoro e vita privata”.

Sembra tutto ragionevole. Ma se ci pensi, è un ritratto che potrebbe valere solo per una parte del pianeta. Chi vive in una comunità dove l’identità è più collettiva che individuale si potrebbe rispecchiare in questa descrizione? E chi cresce in contesti dove la libertà personale non è il valore principale, ma la coesione, la famiglia, la sopravvivenza? Per quelle persone, l’essere umano medio descritto dalla macchina è un estraneo.

Un semplice prompt, volutamente senza contesto, può essere il punto di partenza per scoprire “l’idea” che l’AI ha degli esseri umani. Questo scenario è proprio la base di uno studio pubblicato da un gruppo di ricercatori di Harvard, dal titolo esplicito: Which Humans?

La domanda non è retorica. Gli autori - Mohammad Atari, Mona J. Xue, Peter S. Park, Damián Blasi, Joseph Henrich - hanno provato a capire quale idea di “umano” apprendono i modelli di linguaggio come GPT. E la risposta è netta: l’umano è un umano occidentale. Più precisamente, quella che gli psicologi chiamano WEIRD: Western, Educated, Industrialized, Rich, Democratic.

      • Le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato

In altre parole, le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato.

Cosa dice lo studio

Lo studio è rigoroso. I ricercatori hanno preso il World Values Survey - una delle più grandi indagini internazionali sui valori, le credenze e i comportamenti - e hanno somministrato le stesse domande a GPT. Risultato: le risposte del modello si allineano a quelle di un cittadino americano o dell’Europa continentale. Il modo di “ragionare”, la struttura valoriale, i riferimenti culturali sono quelli di un abitante di Pittsburgh, o della Provenza o di Berlino.

Più ci si allontana dai contesti occidentali, più la somiglianza tra umani e AI svanisce. In termini statistici, la correlazione tra le risposte di GPT e la distanza culturale dagli Stati Uniti è di -0,70: significa che più una popolazione è diversa dall’Occidente, meno GPT riesce a “imitarla”.

Qualche esempio concreto? Le risposte di GPT corrispondono a quelle degli americani nell’80-90% dei casi, agli europei nel 70-75%, ma se ci spostiamo in Asia - Cina, Corea, Vietnam - la corrispondenza crolla al 40-45%, con percentuali ancora più basse per Medio Oriente e Africa.

Persino nei test cognitivi di tipo psicologico - come il “triad task”, che misura se una persona ragiona in modo più analitico o più relazionale - GPT si comporta come un individuo analitico, tipico delle culture occidentali, e lontanissimo da quelle asiatiche, africane o indigene, dove si tende a pensare in termini di relazioni, contesto e interdipendenza.

Di conseguenza, quando il modello tenta di descrivere “l’uomo medio”, lo fa con categorie e valori che suonano familiari solo a una parte del mondo, escludendone una gran parte.

Il problema non è solo geografico. Anche dentro l’Occidente, l’AI fatica con chi non corrisponde allo standard: classi popolari, minoranze etniche, generazioni diverse. Quando Google Translate traduce “medico” dal turco, usa automaticamente il maschile. Quando traduce “infermiere”, il femminile.

Quando un chatbot consiglia a qualcuno in crisi di “prendersi del tempo per sé” o “rivendicare la propria indipendenza”, sta dando un consiglio che ha senso in una cultura individualista, ma potrebbe risultare incomprensibile - o persino dannoso - per chi vive in contesti dove il benessere passa dalla famiglia allargata.

La questione non è accademica

Dietro la promessa di “neutralità” dell’intelligenza artificiale si nasconde un enorme bias culturale travestito da universalità. E poiché i dati di addestramento provengono in gran parte da Internet - uno spazio dominato da culture occidentali, da lingua inglese e da schemi di pensiero individualisti - quello che chiamiamo “intelligenza artificiale” è, in realtà, una macchina occidentale che parla però come se fosse l’umanità intera.

      • C’è una frase nello studio di Harvard che colpisce: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola

Il paradosso è che l’AI non fa nulla di sbagliato: riflette esattamente ciò che le abbiamo insegnato. È la nostra idea di neutralità che è distorta. C’è una frase nello studio di Harvard che colpisce più di tutte: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola.
-  Tradotto: se prendi del fango al posto del cioccolato, lo puoi cuocere o modificare quanto vuoi, ma non diventerà mai Nutella.

Ora, cosa si può fare?

La risposta ovvia sarebbe: addestriamo l’AI su dataset più diversificati. Ed è vero, ci sono progetti in corso - modelli multilingue, collaborazioni con comunità indigene, tentativi di includere più voci. Ma anche qui le cose si complicano.

Primo problema: i dati non-occidentali sono scarsi, costosi da raccogliere, spesso frammentati. Secondo problema: chi decide cosa significa “abbastanza diverso”? Chi rappresenta una cultura? E se i valori di due culture confliggono frontalmente - individualismo contro collettivismo, libertà contro autorità - come dovrebbe comportarsi l’AI?

C’è quindi il rischio concreto di passare da un etnocentrismo involontario a un nuovo colonialismo culturale travestito da inclusività, dove qualcuno decide quali culture meritano rappresentanza e come.

E poi c’è un’altra domanda, ancora più scomoda: anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale. Ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno.

      • Anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale e ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno

Perché quando i modelli linguistici inizieranno a definire - e già lo fanno - il significato di concetti come giustizia, empatia, famiglia o libertà, rischiamo che l’universalità si riduca al solo punto di vista di una parte del pianeta.

E non è un problema tecnico. È un problema politico, culturale, perfino etico. Nei media, nella formazione, nella ricerca, ci affidiamo a queste tecnologie per “capire il mondo”, ma il mondo che queste tecnologie vedono è parziale, filtrato, sbilanciato. E più diventano presenti nelle istituzioni, nelle redazioni, nelle aziende, più questa distorsione rischia di diventare invisibile, perché integrata nei sistemi.

Allora, la prossima volta che chiedi a un’AI un consiglio “universale”, fermati un attimo. E chiediti: universale per chi? Perché se un giorno le macchine cominceranno davvero a parlarci di “umanità”, conviene ricordare che stanno solo restituendo l’eco della nostra voce: una voce che, per ora, parla ancora con un accento molto occidentale.

* "Vita.it", 5 Novembre 2025 (ripresa parziale).


      • NOTE:

      • IL #MATERIALE E L’ #IMMAGINARIO: "#SAPERE #AUDE!" (#KANT, 1784). Questa ricerca porta alla luce del sole la "pre-#potenza di un "#universalismo" tecno-kratico (di matrice "so-kratica" e "platonico" ed "euclidea") di cui si sa già da lungo tempo (su cui si preferisce chiudere gli occhi e "cantare" le lodi della "#dottaignoranza"); si tratta di una "innovazione" che, per "chi" (la stessa cultura europea-occidentale) l’ha realizzata, rischia (a mio parere) di produrre un effetto "capolinea" ("narciso" ed "eco" - autodistruttivo), se non viene accolta con occhi aperti e, con #spiritocritico.

Federico La Sala


Questo forum è moderato a priori: il tuo contributo apparirà solo dopo essere stato approvato da un amministratore del sito.

Titolo:

Testo del messaggio:
(Per creare dei paragrafi separati, lascia semplicemente delle linee vuote)

Link ipertestuale (opzionale)
(Se il tuo messaggio si riferisce ad un articolo pubblicato sul Web o ad una pagina contenente maggiori informazioni, indica di seguito il titolo della pagina ed il suo indirizzo URL.)
Titolo:

URL:

Chi sei? (opzionale)
Nome (o pseudonimo):

Indirizzo email: