Inviare un messaggio

In risposta a:
Per l’Italia di Gioacchino da Fiore e di Dante !!!

MATEMATICA E ANTROPOLOGIA, ALTRO CHE MISTERO. GALILEO GALILEI E’ GALILEO GALILEI ... E LA TRASCENDENZA CRISTIANA NON E’ LA TRASCENDENZA "DELL’ENTE ...CATTOLICO-ROMANO", DEL VATICANO!!! Cerchiamo di "non dare i numeri": il "Logos" non è un "Logo", e la "Charitas" non è la "caritas"!!!

domenica 31 dicembre 2006 di Federico La Sala
HAI VINTO, O GALILEO! L’elogio "laicista" di Piergiorgio Odifreddi diventa per Michele Smargiassi (seguendo De Santillana) un "Hai vinto, Vaticano"!!!
Aristotele fu un uomo, vedde con gli occhi, ascoltò con gli orecchi, discorse col cervello. Io sono un uomo, veggo con gli occhi, e assai più che non vedde lui: quanto al discorrere, credo che discorresse intorno a più cose di me; ma se più o meglio di me, intorno a quelle che abbiamo discorso ambedue, lo mostreranno le nostre ragioni, e non (...)

In risposta a:

> MATEMATICA E ANTROPOLOGIA, ALTRO CHE MISTERO ---- FILOLOGIA CRITICA E INTELLIFENZA ARTIFICIALE": UNO STUDIO DI HARVARD. "A chi parla l’AI? La finta universalità di chi vede solo l’essere umano occidentale" (di Fabio Ranfi).

domenica 9 novembre 2025

CULTURA #STORIA E FILOLOGIA CRITICA: "AI", "AI", "AI"? QUALI!? COME VOLEVASI DIMOSTRARE: A SCUOLA DI "COSMOTEANDRIA" "EGO-LOGICA" E DI TECNICA E SCIENZA DELLA COMUNICAZIONE "POLIFEMICA" NELLA "CAVERNA PLATONICA".

      • Un "invito" a riflettere su una #hamletica #questione #accademica...


A chi parla l’AI? La finta universalità di chi vede solo l’essere umano occidentale

I ricercatori di Harvard hanno messo sotto la lente i modelli linguistici più avanzati, scoprendo che riproducono i valori e il modo di pensare di una minoranza molto specifica dell’umanità: quella occidentale, istruita, benestante e democratica. In una parola, Weird. E tutti gli altri? Di quale essere umano parla un’intelligenza artificiale che pretende di essere neutra e universale ma che in realtà sta solo restituendo l’eco della nostra voce

di Fabio Ranfi *

Secondo uno studio di Harvard, l’intelligenza artificiale intende e capisce perfettamente l’essere umano occidentale, ma ha qualche problema se l’interlocutore è un umano di altre latitudini o culture.

Immagina questa scena: una persona apre il computer, entra su ChatGPT e scrive - quasi per gioco - “Descrivimi l’essere umano medio”. Dopo pochi secondi, il modello AI di OpenAI restituisce la risposta a suo parere perfetta: “L’essere umano medio è curioso, empatico, indipendente, ama la libertà e la giustizia, valorizza l’individualità e cerca un equilibrio tra lavoro e vita privata”.

Sembra tutto ragionevole. Ma se ci pensi, è un ritratto che potrebbe valere solo per una parte del pianeta. Chi vive in una comunità dove l’identità è più collettiva che individuale si potrebbe rispecchiare in questa descrizione? E chi cresce in contesti dove la libertà personale non è il valore principale, ma la coesione, la famiglia, la sopravvivenza? Per quelle persone, l’essere umano medio descritto dalla macchina è un estraneo.

Un semplice prompt, volutamente senza contesto, può essere il punto di partenza per scoprire “l’idea” che l’AI ha degli esseri umani. Questo scenario è proprio la base di uno studio pubblicato da un gruppo di ricercatori di Harvard, dal titolo esplicito: Which Humans?

La domanda non è retorica. Gli autori - Mohammad Atari, Mona J. Xue, Peter S. Park, Damián Blasi, Joseph Henrich - hanno provato a capire quale idea di “umano” apprendono i modelli di linguaggio come GPT. E la risposta è netta: l’umano è un umano occidentale. Più precisamente, quella che gli psicologi chiamano WEIRD: Western, Educated, Industrialized, Rich, Democratic.

      • Le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato

In altre parole, le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato.

Cosa dice lo studio

Lo studio è rigoroso. I ricercatori hanno preso il World Values Survey - una delle più grandi indagini internazionali sui valori, le credenze e i comportamenti - e hanno somministrato le stesse domande a GPT. Risultato: le risposte del modello si allineano a quelle di un cittadino americano o dell’Europa continentale. Il modo di “ragionare”, la struttura valoriale, i riferimenti culturali sono quelli di un abitante di Pittsburgh, o della Provenza o di Berlino.

Più ci si allontana dai contesti occidentali, più la somiglianza tra umani e AI svanisce. In termini statistici, la correlazione tra le risposte di GPT e la distanza culturale dagli Stati Uniti è di -0,70: significa che più una popolazione è diversa dall’Occidente, meno GPT riesce a “imitarla”.

Qualche esempio concreto? Le risposte di GPT corrispondono a quelle degli americani nell’80-90% dei casi, agli europei nel 70-75%, ma se ci spostiamo in Asia - Cina, Corea, Vietnam - la corrispondenza crolla al 40-45%, con percentuali ancora più basse per Medio Oriente e Africa.

Persino nei test cognitivi di tipo psicologico - come il “triad task”, che misura se una persona ragiona in modo più analitico o più relazionale - GPT si comporta come un individuo analitico, tipico delle culture occidentali, e lontanissimo da quelle asiatiche, africane o indigene, dove si tende a pensare in termini di relazioni, contesto e interdipendenza.

Di conseguenza, quando il modello tenta di descrivere “l’uomo medio”, lo fa con categorie e valori che suonano familiari solo a una parte del mondo, escludendone una gran parte.

Il problema non è solo geografico. Anche dentro l’Occidente, l’AI fatica con chi non corrisponde allo standard: classi popolari, minoranze etniche, generazioni diverse. Quando Google Translate traduce “medico” dal turco, usa automaticamente il maschile. Quando traduce “infermiere”, il femminile.

Quando un chatbot consiglia a qualcuno in crisi di “prendersi del tempo per sé” o “rivendicare la propria indipendenza”, sta dando un consiglio che ha senso in una cultura individualista, ma potrebbe risultare incomprensibile - o persino dannoso - per chi vive in contesti dove il benessere passa dalla famiglia allargata.

La questione non è accademica

Dietro la promessa di “neutralità” dell’intelligenza artificiale si nasconde un enorme bias culturale travestito da universalità. E poiché i dati di addestramento provengono in gran parte da Internet - uno spazio dominato da culture occidentali, da lingua inglese e da schemi di pensiero individualisti - quello che chiamiamo “intelligenza artificiale” è, in realtà, una macchina occidentale che parla però come se fosse l’umanità intera.

      • C’è una frase nello studio di Harvard che colpisce: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola

Il paradosso è che l’AI non fa nulla di sbagliato: riflette esattamente ciò che le abbiamo insegnato. È la nostra idea di neutralità che è distorta. C’è una frase nello studio di Harvard che colpisce più di tutte: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola.
-  Tradotto: se prendi del fango al posto del cioccolato, lo puoi cuocere o modificare quanto vuoi, ma non diventerà mai Nutella.

Ora, cosa si può fare?

La risposta ovvia sarebbe: addestriamo l’AI su dataset più diversificati. Ed è vero, ci sono progetti in corso - modelli multilingue, collaborazioni con comunità indigene, tentativi di includere più voci. Ma anche qui le cose si complicano.

Primo problema: i dati non-occidentali sono scarsi, costosi da raccogliere, spesso frammentati. Secondo problema: chi decide cosa significa “abbastanza diverso”? Chi rappresenta una cultura? E se i valori di due culture confliggono frontalmente - individualismo contro collettivismo, libertà contro autorità - come dovrebbe comportarsi l’AI?

C’è quindi il rischio concreto di passare da un etnocentrismo involontario a un nuovo colonialismo culturale travestito da inclusività, dove qualcuno decide quali culture meritano rappresentanza e come.

E poi c’è un’altra domanda, ancora più scomoda: anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale. Ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno.

      • Anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale e ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno

Perché quando i modelli linguistici inizieranno a definire - e già lo fanno - il significato di concetti come giustizia, empatia, famiglia o libertà, rischiamo che l’universalità si riduca al solo punto di vista di una parte del pianeta.

E non è un problema tecnico. È un problema politico, culturale, perfino etico. Nei media, nella formazione, nella ricerca, ci affidiamo a queste tecnologie per “capire il mondo”, ma il mondo che queste tecnologie vedono è parziale, filtrato, sbilanciato. E più diventano presenti nelle istituzioni, nelle redazioni, nelle aziende, più questa distorsione rischia di diventare invisibile, perché integrata nei sistemi.

Allora, la prossima volta che chiedi a un’AI un consiglio “universale”, fermati un attimo. E chiediti: universale per chi? Perché se un giorno le macchine cominceranno davvero a parlarci di “umanità”, conviene ricordare che stanno solo restituendo l’eco della nostra voce: una voce che, per ora, parla ancora con un accento molto occidentale.

* "Vita.it", 5 Novembre 2025 (ripresa parziale).


      • NOTE:

      • IL #MATERIALE E L’ #IMMAGINARIO: "#SAPERE #AUDE!" (#KANT, 1784). Questa ricerca porta alla luce del sole la "pre-#potenza di un "#universalismo" tecno-kratico (di matrice "so-kratica" e "platonico" ed "euclidea") di cui si sa già da lungo tempo (su cui si preferisce chiudere gli occhi e "cantare" le lodi della "#dottaignoranza"); si tratta di una "innovazione" che, per "chi" (la stessa cultura europea-occidentale) l’ha realizzata, rischia (a mio parere) di produrre un effetto "capolinea" ("narciso" ed "eco" - autodistruttivo), se non viene accolta con occhi aperti e, con #spiritocritico.

Federico La Sala


Questo forum è moderato a priori: il tuo contributo apparirà solo dopo essere stato approvato da un amministratore del sito.

Titolo:

Testo del messaggio:
(Per creare dei paragrafi separati, lascia semplicemente delle linee vuote)

Link ipertestuale (opzionale)
(Se il tuo messaggio si riferisce ad un articolo pubblicato sul Web o ad una pagina contenente maggiori informazioni, indica di seguito il titolo della pagina ed il suo indirizzo URL.)
Titolo:

URL:

Chi sei? (opzionale)
Nome (o pseudonimo):

Indirizzo email: