Nel cuore del dibattito contemporaneo su tecnologia e società emerge un tema tanto tecnico quanto politico: la raccolta massiccia di opere digitali da parte delle aziende tecnologiche per addestrare sistemi di intelligenza artificiale. L’ultimo caso a suscitare scalpore riguarda Meta, che avrebbe utilizzato una vasta quantità di testi provenienti da LibGen, archivio digitale informale e controverso, per migliorare i propri modelli linguistici. Questo episodio solleva domande cruciali su chi possiede davvero l’informazione, su come viene impiegata e su cosa significhi, ora, parlare di “accesso” alla conoscenza in un’economia sempre più centrata sull’estrazione dei dati. LibGen, come molte altre piattaforme nate ai margini del sistema legale, “è un database online che permette di accedere illegalmente a contenuti coperti da copyright”. Il vero corto circuito, però, si verifica quando ad accedere a questi contenuti non sono singoli utenti in cerca di sapere, ma colossi tecnologici. A parlarne è il ricercatore e giornalista Philip Di Salvo, in un articolo pubblicato su Wired.it. Meta avrebbe incluso nel proprio training set una selezione di testi prelevati da LibGen, il tutto in modo non dichiarato e eludendo i vincoli di copyright.
“Meta ha trovato nel copyright un ostacolo e per poterlo bypassare ha scelto di rivolgersi a un database formalmente illegale, come LibGen, e ha dovuto farlo segretamente”. È qui che si manifesta la contraddizione più evidente: la stessa azienda che fa largo uso di leggi sul copyright per difendere i propri interessi, non si fa scrupoli ad aggirarle quando esse ostacolano i propri obiettivi. Il risultato è una dinamica predatoria. L’intelligenza artificiale, per funzionare, necessita di grandi quantità di testi, immagini, suoni. Ha bisogno di “leggere il mondo”. Ma cosa succede se il modo in cui lo fa è strutturalmente ingiusto?
“La razzia spregiudicata di questi contenuti è predatoria perché omette completamente l’esistenza di chi quei contenuti li ha creati”, osserva l’autore dell’articolo. Non si tratta soltanto di violare una norma giuridica, ma di cancellare le soggettività che hanno generato quelle opere, trattando il sapere come materia prima da estrarre e monetizzare. Il paradosso si aggrava se consideriamo che questi contributi sono spesso il frutto di lavoro gratuito, condiviso e pensato per essere utile agli altri. La pirateria – nel senso digitale del termine – nasce per contrastare un sistema di accesso chiuso, per facilitare la circolazione delle informazioni, non per offrirsi su un piatto d’argento alle multinazionali. Eppure, nel discorso pubblico, queste azioni vengono spesso giustificate da una narrazione determinista: l’intelligenza artificiale è il futuro, e qualsiasi ostacolo – anche etico – deve essere superato. “Credere che questo contribuirà a indebolire il copyright è una favola”, scrive ancora l’autore, mettendo in guardia da una retorica tossica, che ammantando la tecnologia di neutralità, legittima ogni forma di sfruttamento. Esiste, però, qualche speranza. Se da un lato le grandi piattaforme sembrano operare in assenza di vincoli, dall’altro esiste una rete sempre più solida di pratiche alternative. Chi crea materiali può scegliere di farlo in modo libero, aperto, solidale. Chi consuma informazione può interrogarsi sulla provenienza di ciò che legge, guarda o ascolta.
Le reti di condivisione tra ricercatori, le pubblicazioni in open access, le licenze Creative Commons, e le battaglie culturali per una scienza aperta rappresentano strumenti concreti e già operativi per combattere l’appropriazione indebita di dati e ricerche. Le comunità digitali possono ancora esercitare un controllo collettivo sulle tecnologie, pretendere trasparenza, chiedere equità. L’accesso all’informazione non deve diventare un privilegio controllato dalle aziende, ma restare un diritto costruito insieme. La tecnologia non è qualcosa di predeterminato, ma un insieme di strumenti che riflettono le intenzioni di chi la progetta e la utilizza. Anche l’intelligenza artificiale può essere al servizio del bene comune, ma solo se viene sviluppata in un contesto dove la giustizia sociale, la libertà di accesso e la trasparenza sono priorità, non ostacoli da eludere.
Il caso Meta-LibGen mostra che il potere di oggi non si misura solo in termini di ricchezza o visibilità, ma nella capacità di definire cosa conta come contenuto scientifico e culturale e chi ha il diritto di accedervi. Siamo davanti a un passaggio epocale, in cui si gioca non solo il futuro della tecnologia, ma quello della libertà culturale. Continuare a ignorare i meccanismi di appropriazione, manipolazione e cancellazione che operano sotto la superficie della cosiddetta “innovazione” significa consegnare l’immaginario comune alle logiche delle piattaforme. Fronteggiare questa deriva non significa essere contrari al progresso, ma difendere l’idea che la conoscenza non è solo un tesoro da capitalizzare, ma un diritto da proteggere. In un mondo dove anche il patrimonio conoscitivo rischia di essere ridotto a merce, è urgente riaffermare il valore pubblico della produzione intellettuale. L’intelligenza artificiale potrà diventare un alleato dell’umanità solo quando sarà alimentata da un’etica condivisa, non da archivi saccheggiati nell’ombra. La sfida che ci attende non è solo quella di controllare le tecnologie emergenti, ma di ricostruire un rapporto più giusto e consapevole tra innovazione e diritti fondamentali.
Solo attraverso un impegno condiviso per la protezione dei diritti di chi crea e rende accessibili i contenuti, potremo garantire che il progresso tecnologico sia realmente al servizio degli uomini. L’accesso corretto alla cultura non è una questione accessoria, ma una delle lotte decisive per determinare il nostro domani.