Chi scrive davvero su Wikipedia? La crisi della verità nell’era dell’IA

Caro lettore,
oggi vorrei raccontarti una storia. Non è lunga, non è nemmeno nuova, è solo la forma aggiornata di una vecchia malattia: l’ignoranza travestita da sapere. Ma questa volta ha un alleato potente che parla tutte le lingue del mondo e non conosce il silenzio: l’intelligenza artificiale.
Una voce senza volto che scrive senza capire, cita senza leggere, insegna senza sapere.

Ti sembrerà una forzatura, un eccesso di allarme, forse una posa apocalittica. Eppure ti invito a riflettere su un fatto preciso, concreto, persino burocratico: Wikipedia, l’enciclopedia libera fondata sul contributo di chiunque, ha introdotto da poco una regola nuova, apparentemente tecnica, ma in realtà sintomo di un male profondo. Da oggi, i suoi amministratori (non i lettori, non gli utenti casuali, non i volonterosi editor improvvisati, ma solo i pochi con un mandato di responsabilità) possono cancellare senza discussione una voce che presenti due segni distintivi: una scrittura evidentemente generata da una macchina e riferimenti bibliografici manifestamente errati. È il segnale che persino il tempio dell’informazione partecipata comincia a sospettare della partecipazione stessa. È come se la piazza avesse bisogno di tornelli e il bene comune della conoscenza chiedesse d’un tratto il passaporto.

Il problema, ad essere precisi, non è la regola — necessaria, forse tardiva — ma ciò che l’ha resa inevitabile. Negli ultimi mesi, decine, centinaia di voci su Wikipedia sono state create o modificate da intelligenze artificiali. Non si tratta di sabotaggi, né di scherzi da studenti: si tratta di testi scritti da modelli linguistici automatici addestrati a imitare, a convincere, a comporre. Il risultato è una massa crescente di contenuti dal tono plausibile dotati di struttura coerente, formalmente corretti, tuttavia falsi nell’essenza, pericolosi nella diffusione, vuoti di responsabilità.

Questa è la sbobba artificiale, o AI slop, come la chiamano con più efficacia gli anglosassoni. Un impasto di parole e dati, senza controllo né paternità, creato per esistere, per attrarre l’occhio del lettore, per saturare lo spazio digitale con qualcosa che somiglia al sapere senza esserlo. Come il cibo spazzatura, questi testi saziano ma non nutrono; anzi, anestetizzano il discernimento, normalizzano l’inconsistenza, abituano l’intelligenza a non distinguere più tra un’affermazione fondata e una suggestione plausibile.

Nel 2024 uno studio della Princeton University ha rilevato che circa il 5% delle nuove voci in lingua inglese su Wikipedia era stato prodotto, in tutto o in parte, da sistemi di generazione automatica. La cifra sale se si considerano le tracce meno evidenti, gli inserti parziali, i testi “corretti” ma mai verificati. Non è una congiura ma una deriva: quando tutti possono scrivere e nessuno verifica, allora la conoscenza smette di essere costruzione e diventa rumore.

Wikipedia non è nuova agli abusi, né ignora i pericoli del vandalismo informativo. Ma ciò che accade oggi è differente: l’inganno non è più umano, dunque non ha volto, non ha intenzione, non ha colpa. È solo una funzione, una conseguenza dell’automazione diffusa, della cultura del contenuto generabile a comando. Ci sono articoli che descrivono castelli mai esistiti, altri che confondono luoghi reali con omonimi fittizi, pagine redatte con formule preconfezionate da chatbot che annunciano di parlare “fino all’ultimo aggiornamento disponibile”.
Non è tanto l’errore che allarma quanto la sua accettazione passiva da parte del lettore, la sua inattesa efficacia, la sua pericolosa invisibilità.

Per questo la comunità degli amministratori ha ritenuto necessario agire in fretta: la cosiddetta “cancellazione rapida” consente loro di intervenire direttamente senza passare dal processo deliberativo collettivo. È un’eccezione alla regola democratica della discussione, motivata da un’urgenza che riguarda la difesa stessa dell’affidabilità dell’enciclopedia. Ma si tratta, come ha ammesso uno dei promotori della norma, solo di un cerotto. Una misura tampone utile solo nei casi evidenti.

Ma il problema è più ampio, più sfuggente, più strutturale perché i testi generati artificialmente continueranno a proliferare, si affineranno, si mescoleranno a quelli umani e saranno sempre più difficili da riconoscere. Il rischio, già concreto, è che il sapere diventi indistinguibile dalla sua caricatura. Quando tutto sembra vero, nulla lo è più. Quando ogni affermazione è ben scritta, ben formattata, ben confezionata, allora il contenuto cede il passo alla superficie e la menzogna si fa elegante.

Nessuno ha scritto, nessuno ha letto, nessuno risponde.

Il sapere oggi si scrive da solo. Nessuna mano, nessuna voce, nessuna firma. Le IA generano testi ma nessuno ne risponde. E allora anche la menzogna perde di senso: perché non c’è più chi mente.
Un testo senza autore è come un contratto senza contraente, come una testimonianza senza testimone. È nullo. Eppure prolifera, dilaga, occupa spazio, sostituisce ciò che fu pensiero.

Wikipedia ne è bersaglio ideale: aperta, consultabile, modificabile da tutti. Ma se tutti possono scrivere, chi garantisce che a scrivere sia un uomo e non un software addestrato al plausibile?
Non è vandalismo. È il nulla che si traveste da sapere. È la brodaglia informativa che soffoca la conoscenza. È l’eccesso di contenuto che diventa anestesia del vero.

Related post