Quando l’intelligenza artificiale divora i libri. Il caso Project Panama di Anthropic e la scomparsa silenziosa della cultura
Non ci sono stati roghi nelle piazze, né poliziotti che censurano la cultura, né proclami identitari sull’egemonia. I libri non sono stati vietati, né condannati. Sono stati semplicemente comprati, smembrati e trasformati in dati.
In silenzio. Se Fahrenheit 451 immaginava un mondo in cui i libri sparivano per paura delle idee, oggi sembra esserci una strategia più efficiente: farli scomparire per addestrare le macchine. «Non occorre bruciare i libri per distruggere una cultura. Basta far sì che la gente smetta di leggerli», scriveva Ray Bradbury. Oggi potremmo aggiungere: basta che a leggerli siano solo le intelligenze artificiali.
È in questo contesto che emerge il caso Project Panama, un progetto interno ad Anthropic, una delle aziende più influenti nel campo dell’intelligenza artificiale generativa. Una vicenda che non parla solo di tecnologia, ma di cultura, diritti, potere e di supremazia delle macchine sull’uomo. Ma andiamo con ordine
La sentenza che ridefinisce il “fair use”.
La notizia è arrivata dai tribunali statunitensi. Attraverso il Project Panama, Anthropic aveva scaricato milioni di libri pirata da librerie digitali non autorizzate. Dopo essere stata scoperta l’azienda ha accettato un accordo da 1,5 miliardi di dollari con autori e editori, senza ammettere formalmente un illecito. Fair use sì, acquisizione dei dati no: una linea sottile, ma decisiva. Una causa collettiva intentata da autori ed editori ha portato alla luce pratiche che pochi sino a poco tempo fa avrebbero immaginato. La corte ha stabilito che l’uso di opere protette da copyright per l’addestramento di modelli di IA può rientrare nel fair use: l’IA non copia i testi, ma li “impara” per generare contenuti nuovi. Ma la legalità dell’addestramento non lo giustifica del tutto.
Perché Project Panama è una cosa diversa: ha tentato di definire la cultura come materia prima analogica, tangibile e nel caso del libro sfogliabile, che non solo deve essere “consumata” ma addirittura distrutta. I documenti interni all’azienda descrivono un’operazione ambiziosa quanto surreale: “scansionare in modo distruttivo tutti i libri del mondo”. In pochi mesi, tra 500.000 e 2 milioni di libri usati sono stati acquistati, privati di copertina e dorso, scansionati pagina per pagina e poi riciclati. Nessuna biblioteca, nessun accesso pubblico, nessuna conservazione. I testi cessavano di essere oggetti per diventare semplici dati. La cultura non è più un fine ma semplicemente mezzo. Non è patrimonio condiviso, ma energia e conoscenza al servizio di algoritmi proprietari. La promessa di un’IA etica si incrina di fronte al fatto che il sapere umano diventa invisibile e concentrato nelle mani di pochi.
Anthropic tra etica (discutibile) e ambizione (smisurata)
Fondata da ex membri di OpenAI, Anthropic si presenta come Public Benefit Corporation, con l’obiettivo dichiarato di sviluppare sistemi di IA sicuri e allineati ai valori umani. Claude, il suo modello linguistico che abbiamo imparato a conoscere negli ultimi mesi è solo uno dei prodotti di questa visione. La rivelazione del Panama Project dimostra come società non mirasse a conservare o diffondere la cultura, ma a estrarla come di solito facciamo con le terre rare, il petrolio e il marmo. La materia culturale diventa input per una macchina che scrive senza aver mai vissuto la lettura. È un cambio di statuto radicale: dal libro come opera e memoria condivisa al libro come semplice dato da metabolizzare e cannibalizzare.
Squilibri di potere e patrimonio invisibile. Programmato l’Olocausto dei libri
Gli autori, i traduttori, gli editori perdono voce e controllo. Il valore economico e simbolico generato dalla loro creatività viene assorbito da un ecosistema proprietario, senza remunerazione proporzionata. Non è censura, ma appropriazione indebita e silenziosa. Non è distruzione, ma eliminazione, strage, macero e Olocausto. La Biblioteca di Babele di Borges appare oggi come una metafora inquietante: completa, ma privata; totale, ma inaccessibile. I libri non tornano alle biblioteche, non arricchiscono il pubblico, non circolano. Restano chiusi nei data center, leggibili solo dagli algoritmi.
Cosa ha detto la sentenza?
Negli Stati Uniti, la cosiddetta first‑sale doctrine permette a chi ha acquistato un libro di fare ciò che vuole con quella copia fisica — venderla, prestarla, distruggerla. Se è mio ci faccio quello che voglio. Questo principio esiste da sempre per consentire il mercato dell’usato e altre pratiche legittime. Sulla base di questo, il giudice ha ritenuto che la distruzione dei libri acquistati da Anthropic nell’ambito di Project Panama non violasse di per sé il copyright, perché i libri non venivano riprodotti o redistribuiti dopo la scansione. La corte e i media hanno però duramente criticato l’operazione da un punto di vista culturale ed etico. Tuttavia non è stata pronunciata una condanna penale o una dichiarazione che la distruzione fisica sia stato un atto illegale in sé. Il cinema ci aveva già avvertito: in Matrix le macchine non distruggono gli umani, li usano come fonte di energia. Allo stesso modo, l’IA non elimina la cultura: la assorbe, la metabolizza, la rende invisibile. Project Panama non è un caso isolato, ma un segnale: quando l’innovazione corre più veloce delle tutele, il linguaggio umano diventa combustibile. E se vogliamo davvero preservare il sapere e la creatività, non possiamo limitarci a guardare cosa fanno le macchine che leggono al posto nostro. E dobbiamo ricordarci con un certo orgoglio chetutto quello che leggono prima lo abbiamo scritto noi. Come direbbe Bruce Springsteen, no surrender