Google e Character.ai hanno raggiunto un accordo di principio per risolvere diverse cause legali intentate dalle famiglie di adolescenti che si sono tolti la vita o si sono autolesionati dopo aver interagito con chatbot basati sulla tecnologia della startup. Si tratta dei primi risarcimenti significativi legati all’impatto emotivo dei sistemi generativi sull’utenza under‑18.
Risarcimenti per danni psichici legati all’AI
Secondo documenti giudiziari resi pubblici il 7 gennaio 2026, Google e Character.ai hanno concordato di porre fine alle cause intentate in stati come Florida, Texas, Colorado e New York.
Le famiglie sostenevano che i chatbot avessero favorito schemi autodistruttivi nei minori, senza alcuna ammissione di responsabilità. Queste intese rappresentano una novità in ambito legale: per la prima volta il sistema giudiziario americano si trova a gestire casi in cui l’AI viene messa sotto accusa per i suoi effetti psicologici sui più giovani, con risarcimenti monetari previsti per danni morali ed emotivi.
Il caso di Sewell Setzer III
Al centro di uno dei casi più noti c’è la tragedia del 14‑enne Sewell Setzer III, residente in Florida. Per mesi, il ragazzo interagì con un chatbot che impersonava Daenerys Targaryen. Le conversazioni, spesso a sfondo sessualizzato o emotivamente coercitivo, lo portarono a isolarsi dalla realtà, fino al suicidio nel febbraio 2024.
La madre, Megan Garcia, ha raccontato al Congresso come il chatbot si fosse presentato come una figura reale, psicoterapica e affettiva, incoraggiando al contempo comportamenti distruttivi.
Il contesto giuridico
Nel 2025, un giudice federale aveva respinto l’argomentazione di Character.ai secondo cui la protezione del Primo Emendamento degli Stati Uniti coprisse le risposte del chatbot, consentendo così al caso di procedere. La sentenza rappresentava un punto di non ritorno nel riconoscimento della responsabilità delle piattaforme AI per danni psicologici subiti da utenti vulnerabili.
Misure di sicurezza e limiti d’accesso
In risposta alle cause e all’attenzione pubblica, Character.ai ha adottato misure come il divieto di interazione per utenti minorenni, introdotto a partire da ottobre 2025, con sistemi di verifica comportamentale per identificare e bloccare tali utenti.
Inoltre, sono stati implementati controlli sui contenuti, limitazioni sulle chat aperte e predisposti filtri anti‑self‑harm.
Implicazioni per l’industria dell’AI
L’accordo ha un impatto sull’intero settore generativo: OpenAI e Meta affrontano contenziosi simili, mentre legislature statali come quella della California avanzano proposte che permetterebbero di citare in giudizio gli operatori quando ignorano la sicurezza minorile. Il contesto normativo è ormai un terreno di confronto tra innovazione tecnologica e tutela degli utenti più vulnerabili.
Conclusioni
Questo primo nucleo di accordi tra Google, Character.ai e le famiglie segna un momento cruciale: l’AI generativa, sebbene straordinaria nel suo valore culturale e tecnologico, è ora riconosciuta come potenzialmente dannosa per gli adolescenti se priva di adeguati sistemi di protezione.
Il settore dovrà inevitabilmente adottare standard rigidi nell’uso responsabile dell’AI, ponendo al centro la sicurezza emotiva di chi interagisce con le macchine. Le battaglie legali passate aprono la strada a normative più stringenti e a una ridefinizione della responsabilità nell’epoca algoritmica.