Dove si rincorre l’obiettivo di migliorare i sistemi cognitivi e il potenziale umano implementando innovazione di intelligenza artificiale, non si può fare a meno di pensare ad uno sviluppo parallelo di etica e legalità. Lo sviluppo di macchine supportate da software, la cui peculiarità consiste nella capacità decisionale, fa esplicito riferimento ad un sistema di valori sintetizzabili in algoritmi che possono in taluni casi rappresentare un rischio: il riferimento a valori universali si scontra infatti con la richiesta di intelligenza artificiale da parte di utenti con esigenze individuali alle quali dovrebbero in teoria se non in pratica uniformarsi le macchine.

I Big ricordano l'importanza dell'etica nello sviluppo e nell'utilizzo dell'intelligenza artificiale

Anche i Big riconoscono l’esigenza di un’etica nell’intelligenza artificiale: riuniti a Seattle in occasione del Convegno dei sviluppatori, il Built, società come Google e Microsoft hanno ricordato al proprio pubblico quanto le nuove tecnologie vadano maneggiate con responsabilità. In particolare il settore sta investendo nel machine learning: per fare in modo che i software delle macchine apprendano dall’uomo sono necessarie enormi quantità di dati, dati che però appartengono a chi li genera, cioè gli utenti. Gli utenti quindi sono la fonte di funzionamento degli algoritmi ed è qui che risiedono le nuove motivazioni di crescita dei Big, tutto sta a quanto gli utilizzatori sono disposti a cedere i propri dati.

Così, se da un lato Microsoft promuove l’Intelligent Cloud, Google ha presentato soluzioni di intelligenza artificiale che apprendono ogni abitudine dell’utilizzatore, come le batterie da cellulare intelligenti che adattano i consumi alle esigenze del singolo proprietario dello smartphone.

Non è un caso che anche in Italia si sia cominciato a guardare l’orizzonte di sviluppo delle nuove applicazioni legate all’intelligenza artificiale: vi sono nuove problematiche legate a responsabilità individuale e collettiva legate soprattutto alla dignità e ai diritti fondamentali dovute all’interazione uomo-macchina.

Ne sono esempio i problemi derivanti dagli interventi bionici per il recupero o il potenziamento delle capacità cognitive, la nostra ridotta capacità di prevedere le conseguenze comportamentali di software di intelligenza artificiale, o, ancora, i robot costruiti per scopi bellici, Google ha appena siglato un accordo a tal fine negli Stati Uniti.

Anche la finanza è ormai permeata da scelte velocissime legate a sofisticati sistemi di high frequency trading ormai in grado di mettere in crisi l’intera stabilità finanziaria di singoli paesi: necessitano regole, questi sistemi non sono scevri di consapevolezza degli eventuali impatti che possono creare.

Non ultima, esiste una capacità che stiamo chiedendo ai nuovi algoritmi. Quella di creare una scala di valori, di priorità, davanti a scelte estreme, come ad esempio il “robot salvatore” che stanno studiando affinché possa salvare il maggior numero di gente possibile…con la difficile responsabilità di chi per primo ad esempio.

L’etica dunque non rappresenta solo la nuova ambizione in tema di intelligenza artificiale: fa nascere nuova esigenza legata al rischio di errore e di conseguenza legale che va uniformato attraverso un sistema di valori, diciamo algoritmi, globali.