Oltre al nome di uno storico fisico di fama mondiale, Tesla risponde anche a un'azienda americana specializzata in auto elettriche, stoccaggio energetico e impianti fotovoltaici, il cui amministratore delegato Elon Musk, CEO anche della celeberrima agenzia aerospaziale privata SpaceX, è uno degli imprenditori più ricchi e visionari in vita. Il suo ultimo progetto? OpenAI, un'organizzazione no-profit nata per rendere l'Intelligenza Artificiale utile per l'umanità, per determinare l'utilitarismo sociale nelle tecnologie basate sull'IA, ma che in futuro pare si concentrerà sullo sviluppo di "sistemi altamente autonomi che superano gli esseri umani nei lavori economicamente più vantaggiosi".

In soldoni, macchine più coscienti degli uomini. O, almeno, questo pare essere il cambio di rotta ponderato e intrapreso dalla società, una rotta compatibile con il concetto di macchine utili, ossia dispositivi intelligenti funzionali all'esecuzione di varie attività sociali e lavorative.

La compagnia OpenAI, che ha già racimolato un miliardo di dollari di finanziamenti e vanta il supporto dei maggiori esperti mondiali nell'ambito dell'IA, ha dichiarato anche che cercherà "di costruire direttamente un'AGI sicura e vantaggiosa" e che "considereremo […] la nostra missione completata se il nostro lavoro aiuterà gli altri a raggiungere questo risultato". Ma che s'intende esattamente per AGI? Si tratta della chiave di volta del deep learning, ossia l'Artificial General Intelligence, una vera reliquia per l'OpenAI, che ha recentemente assistito all'allontanamento da parte di Musk a causa di un conflitto di interessi sorto in seno alle attività di Tesla Motors.

Tra gli addetti ai lavori, il momento in cui le macchine diverranno più intelligenti degli uomini è salutato come la "singolarità" e a tal proposito, stando agli ingegneri al lavoro sull'AGI, una volta risolti alcuni problemi ci vorranno solo pochi decenni perché ciò si concretizzi, mentre altri ritengono che la singolarità non si verificherà mai.

Un'arma intelligente

Se fossimo in un fumetto, Musk avrebbe tutte le carte in regola per incarnare lo stereotipico genio miliardario pronto a sbaragliare i piani degli eroi, ma lui non può certo definirsi un supercattivo. Un appellativo più calzante potrebbe invece essere "catastrofista con solide basi", dato il suo rapporto da sempre complicato con la questione dell'intelligenza artificiale e, in questo caso, addirittura con la coscienza artificiale, una teoria pionieristica e dalla remota attuazione, che paradossalmente potrebbe trovare proprio nell'OpenAI un'ottima maturazione ingegneristica.

In effetti, Musk ha da sempre manifestato avversione verso la naturale evoluzione dell'attuale IA e la sua posizione nei confronti di tale tecnologia è nota da tempo.

In effetti, Musk ha da sempre manifestato avversione verso la naturale evoluzione dell'attuale IA e la sua posizione nei confronti di tale tecnologia è nota da tempo.

Risale solo al panel del South by Southwest (SXSW) di marzo uno dei suoi ultimi interventi in merito, dove si è detto "terribilmente spaventato", ponendo l'accento sulla pericolosità insita nell'intelligenza simulata o emulata da un computer: "Si tratta di un aspetto che mi spaventa molto, in quanto rappresenta un grave pericolo per il pubblico, ecco perché credo che ci sia bisogno di un ente pubblico che supervisioni e dia sicurezza agli utenti sugli utilizzi e sviluppi dell'IA" aggiungendo che "alcuni esperti d'intelligenza artificiale pensano di essere più intelligenti di loro.

Questo tende ad affliggere le persone intelligenti, a cui non piace l'idea che una macchina possa essere più intelligente".

E l'AI sviluppata da Google DeepMind per i software di AlphaGo Zero e AlphaGo, che si è rivelata capace di sconfiggere un maestro umano in game, Lee Se-Dol, ha destato notevoli preoccupazioni in Musk, che ha scorto in essa le vere potenzialità dell'intelligenza artificiale, in grado evidentemente di superare le aspettative con un miglioramento esponenziale: "Siamo molto vicini al massimo per l'IA, e il tutto mi spaventa da morire". Nel giro di circa 6-8 mesi, infatti, il gioco del Go, inizialmente incapace di vincere, ha stracciato vari campioni nel mondo: in particolare, come fa notare la stampa, "AlpaGo Zero ha letteralmente distrutto AlphaGo con un punteggio di 100-0, imparando a giocare da sola".

Insomma, come ha detto Musk, "nessuno aveva previsto questo tasso di miglioramento", osservando che "il sistema DeepMind può vincere in qualsiasi gioco: può battere le persone in tutti i giochi originali Atari. È super-umano, gioca tutti i giochi a velocità super in meno di un minuto".

Con un occhio sui software e uno sui veicoli a guida autonoma (che Musk ritiene coprirà a breve tutte le modalità di guida, garantendo una sicurezza superiore del 100-200%), l'imprenditore sudafricano prosegue: "Il tasso di miglioramento è davvero drammatico, ma dobbiamo trovare un modo per garantire che l'avvento della super-intelligenza artificiale digitale sia simbiotica con l'umanità. Penso che possa rappresentare la più grande crisi esistenziale per gli esseri umani" perché "il pericolo rappresentato dall'IA è molto più grande rispetto a quello delle testate nucleari.

Queste sono talmente tanto pericolose che a nessuno verrebbe in mente permettere a chiunque di costruirle in casa [...] e il fatto che non abbiamo alcun controllo [sull'AI] è una follia pura."

Musk ha citato DeepMind di Google come esempio di azienda che cerca di sviluppare la super-intelligenza da lui tanto corteggiata, e a proposito della tecnologia che ci circonda, ha affermato che "siamo già un cyborg, nel senso che gli smartphone e i computer sono già una nostra estensione. Ma sono estensioni a banda bassa" e a detta dell'inventore la migliore soluzione sarebbe "costruire un'interfaccia che attraverso una serie di piccoli elettrodi sia in grado di leggere nel nostro cervello [...] ma sono aperto a idee migliori".

La rivolta delle macchine

Elon Musk è da sempre tra coloro che richiedono frequentemente una regolazione per l'intelligenza artificiale, al punto da definirla più pericolosa delle armi nucleari. Inoltre, nel corso di un documentario registrato dal regista americano Chris Paine che discetta una rassegna di IA, è emerso un nuovo allarme: secondo il geniale imprenditore, infatti, lo sviluppo della fantomatica super-intelligenza da parte di una società o di qualche organizzazione potrebbe portare ad una forma di intelligenza artificiale in grado di governare il mondo, ciò che lui definisce il dittatore immortale.

"Il futuro meno spaventoso che riesco a immaginare è quello in cui abbiamo almeno un'IA democratizzata, perché se una società o un piccolo gruppo di persone riesce a sviluppare una super-intelligenza digitale divina, questa potrebbe conquistare il mondo" confida Musk, precisando che "l'intelligenza artificiale non deve essere malvagia per distruggere l'umanità.

Se ha un obiettivo e l'umanità anche, distruggerà gli esseri umani come una cosa ovvia, senza nemmeno pensarci e senza rancore. È come se, mentre stiamo costruendo una strada, troviamo un formicaio e, anche se non odiamo le formiche, lo distruggiamo lo stesso per il semplice fatto che stiamo costruendo una strada".

Filosofia e coscienza artificiale

Le recenti tendenze sembrano avvalorare le tesi di John Roger Searle, un pensatore che si occupò dell'intelligenza artificiale e che si fece notare soprattutto per la “teoria degli atti linguistici” nel suo libro "Menti, cervelli e programmi", con il test della stanza cinese, un esperimento mentale incentrato su un individuo che, grazie ad opportune istruzioni nella sua lingua, riesce a mettere correttamente insieme dei simboli cinesi pur senza comprenderne i significati.

Tale test contrasta il test di Turing (anche noto come gioco dell'imitazione): il brillante logico e matematico inglese da cui il test prende il nome, Alan Turing, aveva invero pubblicato nel 1950 uno scritto intitolato "Macchine calcolatrici e intelligenza", in cui si domandava "se le macchine possono pensare". Per rispondervi, Turing ideò a sua volta un esperimento mentale volto a chiarire che se un esperto, nel corso di una conversazione "cieca" in cui non vede il suo interlocutore e comunica solo per messaggi scritti, non distingue se questi è una persona o una macchina, allora si può affermare che la macchina pensi, un concept definito isomorfismo mente-computer e teorizzato da Putnam.

Ma i filosofi non hanno mai visto di buon occhio le pretese "forti" dell'AI e uno dei nuclei argomentativi di questo atteggiamento negativo è che non si può parlare di vera e propria intelligenza, o perché, come sosteneva Searle, essa sarebbe puramente sintattica e priva di intenzionalità, o perché, stando a Dreyfus, Winograd e Flores, risulterebbe discreta e asituazionale, cioè sradicata dal vissuto quotidiano degli individui e dall'ambiente naturale e sociale in cui cresce e matura l'uomo.

Secondo il duo Winograd-Flores, infatti, i computer non hanno l'Esserci heideggeriano, ossia quella forma di pre-comprensione contestuale legata all'esperienza della realtà e al senso comune.

Ciò che è certo è che il test di Turing si fondi su presupposti comportamentistici e operazionalistici e infatti, contro i seguaci del pioniere dei calcolatori convinti che "se un sistema si comporta come se capisse il cinese, allora lo capisce davvero", Searle afferma che nessun sistema che si limiti a una manipolazione formale di simboli, incosciente dei loro significati, può essere considerato identico a un essere pensante, anche se le sue performance esteriori lo sono. Insomma, pur operando come delle menti, le macchine calcolatrici non sono delle menti, in quanto in ogni caso privi di coscienza e intenzionalità: chi è veramente intelligente non sono i computer, ma i programmatori.



Tale dibattito andò avanti fino al mutamento di indirizzo dei tecnologi da IA forte a IA debole, con la distinzione tra simulazione ed emulazione: "simulare l'intelligenza" significa infatti costruire delle macchine finalizzate a riprodurre i poteri cognitivi dell'uomo, secondo il modello antropomorfico, mentre "emulare l'intelligenza" vuol dire costruire delle macchine intelligenti ma non simili all'uomo, secondo il modello non antropomorfico.

Oggi, grazie alle teorie di Searle, si ritiene per assurdo che nel futuro dell'intelligenza artificiale ci sia lo sviluppo di una disciplina che, affinando una nuova teoria dell'intenzionalità e della coscienza, possa portare a replicare tutto quel complesso di vissuti che rendono tale l'essere umano: come sostiene Searle, "gli aspetti qualitativi dell'esperienza cosciente esistono; sono comprovabili empiricamente, certo, ma questo non toglie loro valore o consistenza".

Di certo, dai vari convegni in materia è emerso che le attività mentali non possono risolversi esclusivamente in attività cognitive basate sull'elaborazione razionale e meccanica dei simboli, mentre è stata riconosciuta l'interrelazione tra coscienza ed intenzionalità: da allora, gli sforzi sono protesi alla costruzione di un agente intenzionale, e chissà che in un futuro più o meno remoto non si riesca a dare agli automi "quel tocco di umanità" che gli serve per evolvere da mere intelligenze artificiali a coscienze artificiali, da esseri automatizzati ad esseri autonomi.