Il Garante della Privacy ha deciso di bloccare ChatGPT, la piattaforma di intelligenza artificiale di OpenAI, a causa di una raccolta illecita di dati e dell'assenza totale di sistemi di verifica dell'età. OpenAI rischia una sanzione che può arrivare fino a 20 milioni di euro oppure fino al 4% del fatturato annuo. Il Garante ha contestualmente aperto d'ufficio un'istruttoria nei confronti della società americana.

ChatGPT: dal data breach all'indagine sul sistema di addestramento

L'allarme è scattato In seguito a un data breach che è avvenuto il 20 marzo.

Da qui sono state scoperte le carenze evidenti in relazione alla considerevole raccolta di dati personali finalizzata all'addestramento degli algoritmi di ChatGPT. ll 20 marzo tool di intelligenza artificiale ha subito a una grave perdita di dati, che ha pregiudicato le conversazioni e le informazioni di pagamento per il servizio premium.

Secondo le verifiche fatte, le informazioni fornite da ChatGPT non sempre corrispondono effettivamente al dato reale, generando quindi un trattamento inesatto dei dati. La situazione è preoccupante poiché l'utilizzo di dati non corretti potrebbe compromettere in modo serio la privacy degli utenti e mettere a rischio la loro sicurezza.

Mancano i controlli sull'età degli utenti e non c'è tutela dei dati personali dei minori inesistenti

L'Autorità italiana per la protezione dei dati personali è la prima in assoluto al mondo a mettere ufficialmente sotto la lente di ingrandimento il colosso tecnologico, che ha conquistato gli onori delle cronache mondiali con un misto di apprezzamento e perplessità.

A livello internazionale a preoccupare era stato l'impatto sull'occupazione, ma in questo caso si tratta di criticità inerenti ai dati personali.

Secondo il Garante privacy, l'azienda responsabile di ChatGPT, OpenAI, in assenza di qualsiasi filtro per la verifica dell'età degli utenti espone i minori a risposte che sarebbero inadeguate al loro grado di sviluppo e consapevolezza.

Nonostante il servizio sia destinato (solo negli intenti) ai maggiori di 13 anni, l'azienda non ha previsto materialmente alcun meccanismo per verificare l'età reale dei propri utenti, creando quindi un rischio per la sicurezza e la privacy dei minori.

Cosa succede adesso?

OpenAI, che non ha una sede nell'Unione Europea ma ha designato un rappresentante nello spazio economico europeo, ha 20 giorni di tempo per comunicare le misure adottate in seguito alle richieste del Garante.

Open AI potrebbe essere destinataria di una mega-sanzione. L'autorità italiana per la protezione dei dati personali ha chiesto a OpenAI di adottare misure immediate per correggere le problematiche rilevate, al fine di garantire una maggiore protezione dei dati degli utenti e prevenire il rischio di sanzioni pesanti.

Occorre capire se basterà inserire sistemi di controllo per l'età e form per l'accettazione del trattamento dei dati personali.