OpenAI ha introdotto una nuova funzione di sicurezza per ChatGPT, denominata Trusted Contact. Questa innovazione è stata ideata per notificare una persona di fiducia qualora vengano rilevate espressioni di autolesionismo durante le conversazioni con il chatbot. L'iniziativa risponde alle preoccupazioni e alle azioni legali che l'azienda ha dovuto affrontare in seguito a episodi tragici collegati all'uso della sua intelligenza artificiale.

Come funziona il sistema Trusted Contact

La funzionalità Trusted Contact consente agli utenti adulti di ChatGPT di designare un amico, un familiare o un caregiver come contatto fidato.

Nelle situazioni in cui una conversazione si orienti verso il tema dell'autolesionismo, il sistema avvisa l'utente della possibilità di rivolgersi al contatto designato. L'obiettivo primario è promuovere la connessione con un supporto concreto nei momenti di crisi.

OpenAI impiega un approccio combinato di automazione e revisione umana per gestire tali incidenti. Quando specifiche frasi o temi attivano gli alert conversazionali, un team di sicurezza specializzato esamina la situazione e decide se inviare una notifica al contatto fidato. Questa comunicazione può avvenire via email, messaggio di testo o notifica in-app. La notifica è volutamente concisa e non include dettagli specifici della conversazione, al fine di salvaguardare la privacy dell'utente.

L'importanza del supporto sociale e le collaborazioni

Esperti di salute mentale e prevenzione del suicidio evidenziano costantemente come la connessione sociale sia un fattore protettivo cruciale per ridurre il rischio di suicidio. La funzione Trusted Contact è stata sviluppata con il contributo di professionisti del settore per offrire un ulteriore livello di supporto, senza tuttavia sostituire i servizi professionali. ChatGPT continua a esortare gli utenti a contattare linee di emergenza o servizi di salute mentale appropriati quando necessario.

Implementazione e limiti della funzione

Sebbene Trusted Contact rappresenti un significativo progresso in termini di sicurezza, la sua efficacia è legata all'attivazione volontaria da parte degli utenti.

Nonostante questa natura opzionale, OpenAI ritiene che il sistema possa costituire un'importante rete di protezione. I contatti fidati devono accettare l'invito entro una settimana per rendere la funzione operativa, e gli utenti hanno la libertà di modificare o rimuovere il contatto in qualsiasi momento.

Le notifiche vengono emesse solo dopo un'attenta revisione da parte di personale appositamente formato, con l'intento di garantire una risposta tempestiva alle situazioni critiche. Tuttavia, la possibilità per un utente di possedere più account ChatGPT introduce una limitazione alla copertura universale della funzione.

L'impegno di OpenAI per la sicurezza dell'AI

OpenAI ribadisce il suo impegno a collaborare attivamente con clinici, ricercatori e responsabili politici per perfezionare le risposte dell'intelligenza artificiale nei momenti di difficoltà.

La funzione Trusted Contact si inserisce in un più ampio sforzo volto a costruire sistemi AI che promuovano il benessere umano e la sicurezza psicologica.

In sintesi, l'introduzione di Trusted Contact segna un'evoluzione negli strumenti di sicurezza offerti da OpenAI. Mentre l'azienda prosegue nel miglioramento della sua tecnologia, l'attenzione rimane focalizzata sulla creazione di connessioni umane autentiche e sicure, specialmente nei momenti di vulnerabilità.