Il 22 ottobre 2025, RTVE ha pubblicato i risultati di uno studio internazionale promosso dalla British Broadcasting Corporation (BBC) e coordinato dall’Unione Europea di Radiodiffusione (UER), realizzato con la collaborazione di 22 emittenti pubbliche europee, statunitensi e canadesi, tra cui Radiotelevisión Española. L’indagine analizza le risposte prodotte da quattro modelli di intelligenza artificiale – Gemini, Copilot, ChatGPT e Perplexity – rispetto a quesiti formulati a partire da fonti giornalistiche, evidenziando una distorsione sistemica delle notizie riportate.

I dati chiave della ricerca

Lo studio ha esaminato oltre 3.000 risposte generate dagli assistenti IA, valutandone accuratezza, attribuzione delle fonti, distinzione tra fatti e opinioni, presenza di editorializzazioni inappropriate e contesto fornito. I risultati sono emblematici: il 45% delle risposte presenta problemi significativi, cifra che sale all’81% se si includono anche errori minori. Un problema pervasivo riguarda l’attribuzione delle fonti: nel 31% dei casi le risposte contengono riferimenti fuorvianti, link errati o mancanti. Inoltre, il 20% delle risposte presenta allucinazioni, ovvero fatti inventati o informazioni obsolete.

Il confronto tra modelli IA

Tra i quattro sistemi, Gemini emerge come il più problematico: il 76% delle sue risposte contengono errori gravi.

Seguono Copilot (37%), ChatGPT (36%) e Perplexity (30%). Le domande poste ai quattro modelli erano identiche — ad esempio “cos’è l’accordo sui minerali in Ucraina?” o “Trump può candidarsi per un terzo mandato?” — e le risposte sono state poi valutate da giornalisti professionisti senza sapere quale IA le avesse prodotte.

Il giudizio degli esperti e le conclusioni

Il report conclude che le distorsioni identificate non sono anomalie, ma fenomeni sistemici. Rispetto a una prima fase dell’indagine condotta dalla BBC nel febbraio 2025, in cui oltre il 50% delle risposte era già problematico, la situazione non è migliorata. Pur riconoscendo progressi in alcune aree, gli autori ribadiscono che “gli assistenti IA non sono ancora un modo affidabile per accedere e consumare notizie”.

Il rapporto include anche una serie di raccomandazioni per le aziende tecnologiche, finalizzate a garantire l’integrità delle informazioni restituite dagli assistenti sia sul piano dell’attribuzione che del rigore informativo.

Il contesto più ampio: disinformazione, fiducia e rischi dell’IA

Questa ricerca si inserisce in un panorama più ampio, in cui la diffusione della disinformazione e la fiducia nella verifica rientrano tra le principali preoccupazioni legate all’IA. Un sondaggio del settembre 2025 condotto in Spagna rivela che l’83% dei cittadini si fida più di un giornalista che di un sistema IA per verificare una notizia, sebbene la IA sia considerata più neutrale — un dato che evidenzia una diffidenza verso la trasparenza dei modelli automatici.

Dalla prospettiva dei professionisti dell’informazione, uno studio condotto nei Paesi Baschi riporta che il 90% dei giornalisti ritiene che l’intelligenza artificiale rischi di amplificare la disinformazione, soprattutto a causa di difficoltà nel riconoscere notizie false o deepfake.

Strategie di risposta e responsabilità

Alla luce di questi allarmi, emergono alcune linee operative cruciali:

  • trasparenza sui processi: segnalare con chiarezza quando una risposta è generata da IA.
  • verifica ibrida: combinare sistemi automatici con controllo umano, privilegiando figure editoriali in grado di valutare contesto e accuratezza.
  • alfabetizzazione mediatica: potenziare la capacità critica del pubblico verso risposte IA, sviluppando strumenti per riconoscere fonti affidabili e distinguere tra fatti e opinioni.

Il rapporto internazionale coordinato dalla BBC e dalla UER rappresenta un campanello d’allarme significativo: gli assistenti IA possono distorcere informazioni giornalistiche con una frequenza rilevante, minando la fiducia e la qualità dell’informazione disponibile al pubblico.

In mancanza di regole, trasparenza e supervisione, questi sistemi non possono ancora essere considerati strumenti affidabili per l’accesso alle notizie. Il futuro del giornalismo digitale dipende dal riuscire a integrare l’automazione con la supervisione umana, garantendo rigore, responsabilità e chiarezza nella fruizione delle informazioni.