La deregulation delle IA non è innovazione, è saccheggio autorizzato.

Se il consenso del titolare di copyright rende “non plausibile” un modello di business, forse il problema non è il consenso ma il modello.

Table of Contents

Tutto parte da un palco in apparenza innocuo: il Charleston Festival, una rassegna letteraria nel Sussex dove l’ex vicepremier britannico (ed ex alto dirigente di Meta) Nick Clegg presenta il suo nuovo libro. Un’occasione perfetta per parlare di internet, IA e politica globale. Solo che, a un certo punto, tra le righe promozionali e le risposte affettate, Clegg lascia cadere una frase tanto apocalittica quanto rivelatrice:

“Chiedere il permesso ai titolari di copyright per usare le loro opere nell’addestramento dell’IA sarebbe, francamente, non plausibile.”

Aggiunge anche: “se si introducessero obblighi simili nel Regno Unito, si ucciderebbe l’industria dell’intelligenza artificiale da un giorno all’altro”.

Mi ha colpito in particolare l’ambiguità con cui Clegg ha cercato di posizionarsi riconoscendo che le persone dovrebbero poter rifiutare di concedere l’utilizzo dei propri contenuti, salvo poi bollare come “non plausibile” la richiesta più che legittima di ricevere una domanda di autorizzazione preventiva.
Tradotto: i creatori avrebbero diritto a rifiutare, ma solo dopo che il danno è fatto.

Questa visione opportunistica travestita da pragmatismo tecnologico, maschera una verità molto più semplice: il modello economico su cui si regge l’IA generativa si fonda sull’appropriazione non consensuale di opere protette.

Chi conosce il personaggio non si stupisce: Clegg è l’artefice della trasformazione pubblica di Meta dopo gli anni bui di Cambridge Analytica ed oggi è una delle voci più riconoscibili dell’industria tech nel Regno Unito, con posizioni nettamente a favore di un’IA libera da vincoli normativi.

Qui però non siamo di fronte ad una difesa ideologica della tecnologia. Questa è un’ammissione, un lapsus ben costruito: il modello di business delle big tech basato sull’IA generativa non funziona se è costretto a rispettare i diritti degli altri.

 

Un governo che parla di trasparenza mentre la affossa

Sul piano legislativo la dichiarazione di Clegg si inserisce in un momento teso poiché il Parlamento britannico sta discutendo il Data Bill (Use and Access), una proposta di legge che potrebbe cambiare in modo profondo la gestione dei dati nel Paese.
Un emendamento sostenuto dalla Baronessa Kidron e da numerosi artisti di primo piano (da Elton John a Dua Lipa) chiedeva una cosa semplice: obbligare le aziende che sviluppano IA a rendere pubblici i contenuti usati per addestrare i propri modelli. Nessun divieto, solo trasparenza.

Ma quell’emendamento è stato bloccato dal governo con una procedura parlamentare opaca e poco coraggiosa. E qui torna in scena Peter Kyle, attuale segretario alla tecnologia, che pochi giorni dopo dichiara di “rammaricarsi” per il modo in cui il governo ha gestito la consultazione pubblica.
Aggiunge che l’opt-out (cioè l’idea che gli autori debbano dichiarare esplicitamente di non voler essere inclusi) non era forse la scelta più adatta, ma non cambia rotta; al contrario: rinvia ogni soluzione a futuri gruppi di lavoro intersettoriali che, come già denunciato da più fonti, non si sono ancora riuniti.
È una strategia ben collaudata: si promette di ascoltare tutti, poi si prende tempo. Si costruisce un impianto retorico sulla collaborazione tra creativi e tech, e intanto si tutela solo il secondo fronte.

Nel frattempo l’attuale legislazione viene modificata a colpi di cavilli procedurali, come nel caso dell’emendamento Kidron silenziato con un escamotage parlamentare.
Il governo dice di non voler contrapporre creatività e tecnologia ma, nei fatti, ogni sua mossa sembra spingere nella direzione opposta. Come interpretare altrimenti l’impegno per la creazione di “AI Growth Zones” che permetteranno agli sviluppatori di costruire megacentri dati aggirando autorità locali e comunità?

Il messaggio implicito è chiaro: la crescita dell’IA viene prima di tutto. Anche del diritto.

 

Non è un problema di tecnologia, è un problema di potere

Chiariamo: non c’è nulla di inevitabile nell’uso massivo e non consensuale di contenuti protetti da parte dei modelli linguistici. La questione centrale è se ciò possa avvenire senza trasparenza, senza compensi e senza consenso.
Ci sono però alternative: schemi di licenza, modelli di compensazione, accordi con editori e detentori di diritti. Esiste perfino un’ovvietà troppo spesso dimenticata: chiedere il permesso.
Ma questo richiede tempo, risorse e una visione diversa. Quella che oggi manca.
Clegg ci dice che “non si può fare”, che “non è realistico chiedere a tutti”, che “i dataset sono troppo grandi”. E allora viene da chiedersi: se il solo fatto di dover rispettare il consenso mina l’intero modello, forse il problema non è il consenso ma il modello stesso.
Un modello costruito su asimmetrie: tra chi crea e chi sfrutta, tra chi deve dimostrare di possedere i diritti e chi può “pescare” liberamente dal web fino a prova contraria.

Lo scenario che si sta delineando è chiaro: una corsa globale all’IA in cui i governi sono più preoccupati di “non restare indietro” che di proteggere i diritti fondamentali. Un futuro dove il copyright diventa un ostacolo tecnico, non un valore culturale. Pensiamo al paradosso: un Paese, il Regno Unito, che si propone come hub mondiale per lo sviluppo dell’intelligenza artificiale ma che al contempo svuota il diritto d’autore dall’interno.

 

Se l’innovazione ha paura del diritto, allora non è innovazione

Non ho nessuna nostalgia dell’autore romantico, non sto difendendo una visione passatista della creatività. Quello che difendo è il principio secondo cui la tecnologia non può essere autorizzata a funzionare solo se viola le regole.
Il consenso non è un ostacolo, ma un fondamento!
La trasparenza non è un lusso per pochi, ma una condizione minima in un contesto democratico.

Non serve essere giuristi per capirlo, basta guardare dove ci sta portando questo discorso: verso un mondo in cui chi ha più capacità computazionale decide cosa è lecito e cosa no. E chi crea, chi scrive, chi compone, chi disegna, viene trattato come “materiale d’allenamento”.

Clegg ci dice che non si può fare altrimenti. Io dico che, se non si può fare altrimenti, allora forse non dobbiamo farlo affatto.

Related post