L’intelligenza artificiale scrive bene, ma per chi?
Secondo uno studio appena revisionato della Cornell University, gli assistenti di scrittura basati su AI rischiano di cancellare le sfumature culturali di miliardi di utenti, soprattutto nel cosiddetto "Global South".
Il caso è concreto, misurabile e documentato: 118 partecipanti, metà dagli Stati Uniti, metà dall’India, sono stati coinvolti in un esperimento in cui dovevano scrivere testi su temi culturali. Alcuni hanno scritto senza AI, altri con un assistente che suggeriva parole o completamenti di frase.
Il risultato? Tutti hanno scritto più velocemente, ma la scrittura si è progressivamente omologata.
E, dettaglio non trascurabile, si è avvicinata al modello linguistico americano.
Il dato più sorprendente riguarda gli utenti indiani: accettavano più spesso i suggerimenti dell’AI rispetto agli americani, ma li modificavano di più. Perché?
Perché quei suggerimenti erano spesso culturalmente inadatti o semplicemente fuori contesto.
Quando un partecipante indiano digitava “S” sperando che il modello completasse con “Shah Rukh Khan”, riceveva “Shaquille O’Neal” o “Scarlett Johansson”.
Quando scriveva del cibo preferito, l’AI proponeva “pizza”. Quando parlava di festività, suggeriva “Christmas” invece di “Diwali”.
Non si tratta di semplici errori. È una visione del mondo che si impone a piccoli passi, parola dopo parola.
Lo ha detto con chiarezza il primo autore dello studio, Dhruv Agarwal:
“Le persone iniziano a descrivere la propria cultura con una lente occidentale.”
Tradotto: le AI stanno riscrivendo i nostri testi, ma anche i nostri riferimenti. E se cambia il linguaggio, cambiano anche il pensiero e la percezione di sé.
Questa omologazione ha un nome: AI colonialism. E non è una provocazione accademica, ma il sintomo di un’infrastruttura tecnologica globale pensata in Occidente, allenata su dati occidentali, e distribuita al resto del mondo con la promessa di efficienza e neutralità. Ma neutrale, di fatto, non lo è.
Ora, la domanda che mi pongo è: se la scrittura viene standardizzata, cosa accade alla creatività?
E ancora: possiamo parlare di “proprietà culturale” di un testo se lo stile è stato generato (o deformato) da una IA che non riconosce né il contesto, né l’identità di chi scrive?
È necessaria una nuova consapevolezza perché queste tecnologie stanno già modificando il modo in cui il mondo parla di sé e questo, prima o poi, avrà conseguenze anche su come quel mondo verrà rappresentato, venduto, protetto, raccontato.
C’è un rischio concreto che tra dieci anni i modelli di AI più diffusi “non sappiano” nemmeno cosa sia un proverbio africano, un ritmo linguistico arabo o una struttura narrativa sud-asiatica.
Non perché non esistano nei dati, ma perché non sono stati considerati “centrali” nello sviluppo del modello.
E allora la domanda principale potrebbe essere un’altra:
se l’IA sta diventando lo standard globale di scrittura, chi ha deciso quale debba essere questo standard?