Nude è una nuova app sviluppata da due ventunenni della University of California di Berkeley che, sfruttando l’intelligenza artificiale, promette di mettere al sicuro le foto di nudo maschile e femminile presenti sullo smartphone. Grazie al framework CoreML di Apple per iOS 11 o superiore l’applicazione scansiona gli album fotografici alla ricerca di nudità: le immagini identificate sono subito rimosse dal dispositivo e da iCloud, ma vengono salvate in una specie di “cassaforte” virtuale dalla quale il proprietario potrà recuperarle in qualunque momento inserendo un codice PIN.

Prossimamente disponibile anche per Android, sul quale Nude sfrutterà invece Tensorflow, la app cerca di rispondere all’esigenza di mantenere la privacy dei consumatori. Jessica Chiu – che ha fondato la startup responsabile dello sviluppo dell’applicazione insieme a Y.C. Chen – ha raccontato al TechCrunch Disrupt che, nonostante molti sostengano di non avere foto di nudo sul proprio smartphone, tutti quelli a cui è stato presentato il progetto hanno dichiarato d’avere bisogno di qualcosa del genere. A prescindere dalle ipocrisie, il ricorso all’intelligenza artificiale rende Nude piuttosto interessante.

Come funziona Nude per iOS su iPhone

Il download dell’applicazione da App Store è gratuito, ma Nude prevede un abbonamento – addebitato su base mensile o annuale – di $0.99 da versare ogni trenta giorni e che può essere disdetto 24 ore prima del termine.

Una prima selezione dei contenuti sensibili è automatica: gli utenti possono in ogni momento aggiungere manualmente alla “cassaforte” altri contenuti tra foto e video che ritengono particolarmente importanti come, ad esempio, le scansioni dei documenti oppure gli scatti di famiglia.

Una curiosità sulla app deriva dal fatto che i suoi creatori hanno effettuato degli esperimenti su Pornhub, prima di sviluppare Nude, e non sono rimasti granché soddisfatti dai risultati.

L’idea era quella di sfruttare un archivio esistente di oltre 30.000 foto di nudo per affinare l’algoritmo responsabile della selezione delle immagini: tuttavia, la scelta autonoma dei contenuti poneva dei problemi nel riconoscimento della nudità nelle persone di colore ed è stata preferita una diversa tecnologia che comunque presenta ancora qualche imperfezione (ad esempio, sui seni maschili) da correggere nelle versioni successive.