New York Times fa causa a OpenAI per violazione Copyright

Il New York Times ha intentato una causa contro OpenAI, la società dietro ChatGPT, e Microsoft per violazione del copyright, intensificando la battaglia legale sull’uso non autorizzato di opere pubblicate per la formazione sull’intelligenza artificiale. Secondo il New York Times, milioni dei suoi articoli sono stati utilizzati per addestrare i chatbot, che ora competono con il giornale come fonte affidabile di informazioni. Il significato di questa causa va oltre le parti coinvolte, poiché si prevede che avrà un impatto sull’intero settore dell’intelligenza artificiale e della creazione di contenuti. Il nocciolo dell’argomentazione del Times risiede nell’affermazione secondo cui ChatGPT ha utilizzato “milioni” dei suoi articoli, consentendo al chatbot di rivaleggiare direttamente con i suoi contenuti. Questa sfida legale è notevole perché i sistemi di intelligenza artificiale in genere non rivelano il contenuto specifico utilizzato nei loro dati di addestramento, lasciando incertezza sulle potenziali violazioni del copyright.

La causa sostiene che OpenAI e i grandi modelli linguistici (LLM) di Microsoft, che alimentano ChatGPT e Copilot, possono riassumere e replicare fedelmente lo stile espressivo degli articoli dell’editore. L’implicazione pratica sono potenziali perdite finanziarie per il New York Times, inclusi “abbonamenti, licenze, pubblicità e entrate”. Inoltre, i grandi modelli linguistici sono accusati di rappresentare una minaccia per il giornalismo di qualità. Di conseguenza, l’industria editoriale internazionale sta osservando da vicino questo caso, anticipando le sue implicazioni sull’uso di materiali protetti da copyright nella formazione sull’intelligenza artificiale e il suo potenziale impatto sugli standard del giornalismo.

New York Times fa causa a OpenAI per violazione copyright

Il New York Times ha tentato di negoziare un accordo con entrambe le entità ma, secondo quanto riferito, non è riuscito a raggiungerne uno. Sebbene al momento non vi sia una risposta ufficiale da parte di Microsoft e OpenAI, un recente precedente coinvolge l’editore tedesco Axel Springer, che ha unito le forze con OpenAI per fornire contenuti dai suoi marchi multimediali in risposta alle domande degli utenti. Descritta come un “evento senza precedenti”, questa partnership consente agli utenti di ChatGPT di ricevere riassunti di articoli dai marchi di Axel Springer, tra cui Politico, Business Insider, Bild e Welt, concentrandosi in particolare su contenuti che in genere richiederebbero un abbonamento a pagamento. Nonostante questo caso specifico, i colossi dell’intelligenza artificiale generativa si sono precedentemente difesi citando la dottrina statunitense del Fair Use, affermando il diritto di riutilizzare il materiale protetto da copyright in determinate circostanze.

In sintesi, i tentativi del New York Times di raggiungere un accordo con Microsoft e OpenAI non hanno avuto successo e, sebbene non vi sia ancora una risposta ufficiale, un precedente notevole prevede la collaborazione di OpenAI con Axel Springer per fornire contenuti riepilogativi in ​​risposta alle domande degli utenti, sottolineando la dipendenza dei giganti dell’intelligenza artificiale dalla dottrina del Fair Use per giustificare le loro pratiche di utilizzo dei contenuti.

Il New York Times (NYT) si è unito a molti altri media nella recente tendenza di bloccare il web crawler di OpenAI. Questa azione ha ostacolato la capacità di OpenAI di estrarre contenuti dal sito web del NYT, impedendo alla società di intelligenza artificiale di utilizzare i dati per l’addestramento dei suoi modelli di intelligenza artificiale. Vale la pena notare che il NYT non è il solo ad adottare questa misura, poiché anche altre importanti testate giornalistiche come BBC, CNN e Reuters hanno adottato misure per bloccare il web crawler di OpenAI negli ultimi mesi.

Questa risposta collettiva da parte dei principali media suggerisce una crescente preoccupazione all’interno del settore riguardo alle potenziali implicazioni e all’utilizzo delle tecnologie di web crawling da parte delle entità di intelligenza artificiale. Limitando l’accesso ai propri contenuti online, queste organizzazioni mirano ad affermare il controllo sull’uso dei propri dati e a proteggere l’integrità delle proprie piattaforme digitali. Le azioni del NYT e di altri riflettono un dibattito più ampio sull’equilibrio tra il libero accesso alle informazioni e la necessità di salvaguardie contro potenziali abusi nel panorama in evoluzione dell’intelligenza artificiale.

Commento della redazione

Secondo Noi non ci sono gli estremi per un risarcimento.

AI è vero che si addestra su testi online, ma è come quando un giornalista legge un articolo e poi lo rielabora a parole sue: non ha violato nessun copyright ma si sa, le aziende americane sono degli squali che quando sentono l’odore del sangue (aka denaro  partono alla carica dei 100 avvocati.

Autore

  • massimiliano biagetti

    Fondatore di Economia Italiacom e Finanza Italiacom è divulgatore finanziario e trader.