Google non rinnoverà il Progetto Maven con il Pentagono che, nei prossimi 19 mesi, avrebbe dovuto incrementare gli utili di "Big G" di altri 9 milioni di dollari, con un'ulteriore crescita economica che da 15 milioni sarebbe potuta passare a 250 milioni di dollari l'anno.

Questa decisione rappresenta una vittoria per gli oltre 3mila dipendenti che, con una lettera in cui affermavano "i droni possono uccidere", avevano chiesto ai dirigenti di Mountain View di fermare la collaborazione con il Dipartimento della Difesa americano. Infatti, il proposito di sviluppare sistemi di Intelligenza Artificiale per analizzare contenuti registrati da droni con scopi militari non era affatto piaciuto ai collaboratori del colosso statunitense, i quali ritenevano pericolosa un'applicazione dell'I.A.

per finalità belliche.

L'Intelligenza Artificiale è utile, ma non per le armi

Sundar Pichai, Ceo di Google, dopo aver ribadito che le collaborazioni con il Dipartimento della Difesa andranno avanti ma non per obiettivi bellici, ha pubblicato sul sito ufficiale dell'azienda i 7 principi fondamentali che spiegano come dev'essere sviluppata l'Intelligenza Artificiale. Innanzitutto, l'amministratore delegato della società statunitense ha sottolineato che questa tecnologia deve puntare innanzitutto a garantire un vantaggio sociale, non favorendo alcun tipo di disparità. Inoltre deve garantire sempre la sicurezza, deve seguire e rispettare le norme sulla privacy, conseguendo costantemente elevati standard di eccellenza scientifica.

Infine l'I.A. può essere utilizzata solo ed esclusivamente tenendo conto di queste regole di base.

Dunque, Google ha ribadito il suo impegno nello sviluppo dell'Intelligenza Artificiale che, tuttavia, non dovrà arrecare alcun tipo di danno globale. Inoltre, tra le finalità che Mountain View non ha alcuna intenzione di perseguire, vi è la realizzazione di armi o tecnologie che possano agevolare o provocare danni alle persone.

Infine non verranno mai introdotti dispositivi che, in tema di sorveglianza, violino le norme internazionali e i diritti umani.

Sundar Pichai, con il suo intervento, ha voluto rassicurare anche i propri dipendenti, ricordando che l'Intelligenza Artificiale, anche se non potrà sopperire a qualsiasi tipo di problema, potrà comunque essere uno strumento molto utile per l'uomo.

Non rinnovando il contratto con il Pentagono in merito al Progetto Maven, Google ha fatto un passo indietro significativo, allineandosi ai dubbi dei suoi lavoratori, i quali ritenevano rischioso impelagarsi in una collaborazione che aveva dei chiari scopi militari. Del resto, fin da subito era apparso piuttosto chiaro che l'obiettivo di integrare tecnologie per il machine learning e per lo sviluppo di droni da parte del Dipartimento della Difesa statunitense non aveva come unico obiettivo finale quello della sorveglianza: i dispositivi, difatti, avrebbero avuto una capacità autonoma d'attacco, qualora avessero individuato degli obiettivi sensibili.

Nel progetto iniziale, era previsto che i droni fossero dotati della peculiarità di distinguere e riconoscere oggetti legati a 38 categorie ben definite, allo scopo di fornire dati agli analisti dell'intelligence. Del resto, Le API TensorFlow di Google non sono mai state progettate per equipaggiare armi intelligenti.