Il 22 ottobre 2025, RTVE ha pubblicato i risultati di uno studio internazionale promosso dalla British Broadcasting Corporation (BBC) e coordinato dall’Unione Europea di Radiodiffusione (UER), realizzato con la collaborazione di 22 emittenti pubbliche europee, statunitensi e canadesi, tra cui Radiotelevisión Española. L’indagine analizza le risposte prodotte da quattro modelli di intelligenza artificiale – Gemini, Copilot, ChatGPT e Perplexity – rispetto a quesiti formulati a partire da fonti giornalistiche, evidenziando una distorsione sistemica delle notizie riportate.
I dati chiave della ricerca
Lo studio ha esaminato oltre 3.000 risposte generate dagli assistenti IA, valutandone accuratezza, attribuzione delle fonti, distinzione tra fatti e opinioni, presenza di editorializzazioni inappropriate e contesto fornito. I risultati sono emblematici: il 45% delle risposte presenta problemi significativi, cifra che sale all’81% se si includono anche errori minori. Un problema pervasivo riguarda l’attribuzione delle fonti: nel 31% dei casi le risposte contengono riferimenti fuorvianti, link errati o mancanti. Inoltre, il 20% delle risposte presenta allucinazioni, ovvero fatti inventati o informazioni obsolete.
Il confronto tra modelli IA
Tra i quattro sistemi, Gemini emerge come il più problematico: il 76% delle sue risposte contengono errori gravi.
Seguono Copilot (37%), ChatGPT (36%) e Perplexity (30%). Le domande poste ai quattro modelli erano identiche — ad esempio “cos’è l’accordo sui minerali in Ucraina?” o “Trump può candidarsi per un terzo mandato?” — e le risposte sono state poi valutate da giornalisti professionisti senza sapere quale IA le avesse prodotte.
Il giudizio degli esperti e le conclusioni
Il report conclude che le distorsioni identificate non sono anomalie, ma fenomeni sistemici. Rispetto a una prima fase dell’indagine condotta dalla BBC nel febbraio 2025, in cui oltre il 50% delle risposte era già problematico, la situazione non è migliorata. Pur riconoscendo progressi in alcune aree, gli autori ribadiscono che “gli assistenti IA non sono ancora un modo affidabile per accedere e consumare notizie”.
Il rapporto include anche una serie di raccomandazioni per le aziende tecnologiche, finalizzate a garantire l’integrità delle informazioni restituite dagli assistenti sia sul piano dell’attribuzione che del rigore informativo.
Il contesto più ampio: disinformazione, fiducia e rischi dell’IA
Questa ricerca si inserisce in un panorama più ampio, in cui la diffusione della disinformazione e la fiducia nella verifica rientrano tra le principali preoccupazioni legate all’IA. Un sondaggio del settembre 2025 condotto in Spagna rivela che l’83% dei cittadini si fida più di un giornalista che di un sistema IA per verificare una notizia, sebbene la IA sia considerata più neutrale — un dato che evidenzia una diffidenza verso la trasparenza dei modelli automatici.
Dalla prospettiva dei professionisti dell’informazione, uno studio condotto nei Paesi Baschi riporta che il 90% dei giornalisti ritiene che l’intelligenza artificiale rischi di amplificare la disinformazione, soprattutto a causa di difficoltà nel riconoscere notizie false o deepfake.
Strategie di risposta e responsabilità
Alla luce di questi allarmi, emergono alcune linee operative cruciali:
- trasparenza sui processi: segnalare con chiarezza quando una risposta è generata da IA.
- verifica ibrida: combinare sistemi automatici con controllo umano, privilegiando figure editoriali in grado di valutare contesto e accuratezza.
- alfabetizzazione mediatica: potenziare la capacità critica del pubblico verso risposte IA, sviluppando strumenti per riconoscere fonti affidabili e distinguere tra fatti e opinioni.
Il rapporto internazionale coordinato dalla BBC e dalla UER rappresenta un campanello d’allarme significativo: gli assistenti IA possono distorcere informazioni giornalistiche con una frequenza rilevante, minando la fiducia e la qualità dell’informazione disponibile al pubblico.
In mancanza di regole, trasparenza e supervisione, questi sistemi non possono ancora essere considerati strumenti affidabili per l’accesso alle notizie. Il futuro del giornalismo digitale dipende dal riuscire a integrare l’automazione con la supervisione umana, garantendo rigore, responsabilità e chiarezza nella fruizione delle informazioni.