All’inizio di gennaio 2026, un post su Reddit è diventato virale. A firmarlo, un account anonimo – u/Trowaway_whistleblow – che si spacciava per sviluppatore di una grande piattaforma di food delivery. Il contenuto era esplosivo: accuse di sfruttamento dei driver, algoritmi manipolativi, assegnazione di “desperation score” per valutare la condizione economica dei corrieri, servizi prioritari inefficaci e sottrazione delle mance. Un messaggio melodrammatico, scritto da “ubriaco in biblioteca”, che ha raccolto decine di migliaia di upvote e milioni di visualizzazioni.

Ma era tutto falso.

La disinformazione online

Il post – pubblicato il 2 gennaio – è stato condiviso migliaia di volte su Reddit e su X, raccogliendo circa 87.000 upvote e oltre 208.000 “like”, con più di 36 milioni di impressioni. Il contenuto era credibile: descriveva con dovizia di particolari pratiche che, storicamente, erano già emerse in casi reali, come la controversia legata a DoorDash per mance sottratte ai driver, risolta con un accordo da 16,75 milioni di dollari.

Giornalismo e fact-checking

Il giornalista Casey Newton di Platformer ha provato a verificare le affermazioni. Il presunto whistleblower ha fornito un’immagine di un badge “Uber Eats” e un documento interno di 18 pagine che illustrava l’uso di un algoritmo per il “desperation score”.

Tuttavia, Newton ha smascherato il trucco: il badge era probabilmente generato da AI, così come il documento. Gli strumenti di analisi, incluso Gemini di Google, hanno evidenziato la presenza del watermark digitale SynthID nell’immagine.

I limiti degli strumenti di rilevamento AI

I principali tool di rilevazione AI – Copyleaks, GPTZero, Pangram, Gemini, Claude – hanno indicato che il testo era probabilmente generato da intelligenza artificiale. Un risultato non netto: ZeroGPT, QuillBot e ChatGPT hanno fornito risposte discordanti. Questo scenario evidenzia i limiti degli strumenti di detection oggi disponibili e la necessità di un approccio di verifica multiplo, specialmente quando le informazioni si rivelano virali.

La risposta delle aziende

Non si sono fatte attendere le smentite ufficiali. Il CEO di DoorDash, Tony Xu, ha replicato con fermezza su X: «This is not DoorDash, and I would fire anyone who promoted or tolerated the kind of culture described». Anche Uber ha definito il contenuto «dead wrong», sottolineando che il materiale fornito conteneva errori evidenti – ad esempio il badge che riportava “Uber Eats” anziché il corretto brand «Uber».

Perché il post ha avuto successo

Il post ha scatenato reazioni emotive forti perché faceva leva su fenomeni reali: sfruttamento dei lavoratori della gig economy, algoritmi opachi, dinamiche di trasparenza ambigua. La plausibilità del messaggio, unita a una presentazione dettagliata e visivamente convincente, ha fatto il resto.

In un ecosistema mediale dove tutti scrollano velocemente, queste narrazioni possono diventare “realtà” prima ancora del fact-checking.

Nonostante headline sensazionali e immagini ingannevoli, la logica è chiara: serve rigore nella verifica, soprattutto in epoca di generative AI.