Informatica

ChatGPT nel mirino di Britannica: lo scontro che può cambiare il futuro dell’informazione online

Tecnologia e tradizione a confronto
ChatGPT nel mirino di Britannica: lo scontro che può cambiare il futuro dell’informazione online - E4a.it

Quello che sta succedendo tra le grandi piattaforme di intelligenza artificiale e chi produce contenuti online non è una semplice disputa legale, ma uno scontro che riguarda direttamente il modo in cui milioni di persone accedono alle informazioni ogni giorno.

Negli ultimi mesi il tema è diventato sempre più concreto. Non si parla più solo di ipotesi o di dubbi teorici: editori, giornali e ora anche istituzioni storiche stanno passando all’azione. Dopo le cause avviate da grandi testate internazionali, si aggiunge un nome che pesa parecchio.

Britannica contro OpenAI: cosa sta succedendo davvero

Encyclopaedia Britannica, insieme alla controllata Merriam-Webster, ha deciso di portare in tribunale OpenAI. L’accusa è diretta: utilizzo massiccio di contenuti protetti da copyright per addestrare i modelli di intelligenza artificiale, senza autorizzazione e senza compensi.

Secondo quanto emerso, si parla di circa 100.000 articoli usati come base per costruire risposte automatiche. Non contenuti qualsiasi, ma materiali editoriali costruiti nel tempo con lavoro umano, verifiche e standard qualitativi molto elevati.

Il punto centrale è semplice da capire anche per chi non segue il settore: se un utente ottiene una risposta completa direttamente da ChatGPT, perché dovrebbe visitare il sito originale?

Il problema del traffico e dei ricavi

Qui entra in gioco una conseguenza molto concreta. Britannica sostiene che le risposte generate dall’AI finiscono per sostituire i contenuti originali, riducendo il traffico verso il sito e quindi anche i ricavi.

Non è solo una questione di principio. È un problema economico reale. Meno visite significa meno pubblicità, meno abbonamenti e meno sostenibilità per chi produce informazione di qualità.

Nel lungo periodo, questo può creare un effetto a catena: meno risorse disponibili, meno contenuti verificati, più spazio per informazioni meno affidabili.

RAG, contenuti e il rischio di copia

Un altro punto delicato riguarda il cosiddetto RAG (Retrieval-Augmented Generation). È il sistema che permette all’AI di cercare informazioni aggiornate online mentre risponde alle domande.

Secondo Britannica, questo processo non si limita a “ispirarsi” ai contenuti, ma in alcuni casi li riproduce, anche solo in parte. Il confine tra rielaborazione e copia diventa difficile da tracciare.

Per chi legge, il risultato è invisibile. Ma per chi quei contenuti li ha scritti, la differenza è enorme.

Il nodo delle “allucinazioni” e della fiducia

C’è poi un aspetto meno tecnico ma forse ancora più delicato: le cosiddette allucinazioni. Quando l’AI genera informazioni inesatte e le attribuisce a fonti autorevoli, il danno non è solo economico, ma anche reputazionale.

Britannica sostiene che questo meccanismo rischia di compromettere l’accesso a informazioni affidabili. Se una risposta sembra credibile ma contiene errori, l’utente medio difficilmente se ne accorge.

E quando la fiducia si incrina, ricostruirla diventa complicato.

Una legge ancora incerta

Il vero problema è che il quadro legale non è ancora definito. Non esiste una regola chiara che stabilisca se usare contenuti protetti per addestrare un’AI sia davvero una violazione del copyright.

In un caso recente che ha coinvolto Anthropic, un giudice ha riconosciuto che l’uso dei dati per l’addestramento può essere considerato trasformativo, quindi legale. Ma nello stesso tempo ha condannato l’azienda per aver scaricato milioni di libri senza autorizzazione.

Due decisioni nello stesso contesto. Due direzioni diverse.

Ed è proprio qui che la situazione resta aperta. Le prossime sentenze potrebbero ridefinire i confini tra tecnologia, informazione e diritti d’autore, con effetti che andranno ben oltre le aule di tribunale.

Change privacy settings
×