“Riflessioni” di prof. Giancarlo Elia Valori – Intelligenza artificiale e questioni morali. IA fra guerra e coscienza di sé

0
50

“Riflessioni” di Prof. Giancarlo Elia Valori, Cavaliere del Lavoro, Honorable de l’Académie des Sciences de l’Institut de France, President of International World Group

a cura di Alberto Rino Chezzi

All’inizio del 2018 il numero di cellulari in uso ha superato quello degli esseri umani sul pianeta, raggiungendo la cifra di 8 miliardi. In teoria ognuno di questi dispositivi è connesso a due miliardi di computer, collegati a loro volta in rete. Data l’incredibile quantità di dati coinvolti in questo tipo di utilizzo, posto che la rete di computer è in costante contatto e in continua crescita è possibile che l’umanità abbia già creato un imponente cervello? Un’intelligenza artificiale che assunto un’identità tutta sua?

Il settore della robotica è in continua evoluzione è seguita a fare passi in avanti, è chiaro quindi che prima o poi si dovrà passare dall’intelligenza artificiale alla super intelligenza. ovvero a un essere di questo pianeta più intelligente di noi che presto non lo sarà ancora maggiormente. Non sarà piacevole quando l’intelligenza artificiale con i suoi saperi e le sue abilità intellettuali metterà all’angolo l’essere umano, superando le persone in carne e ossa in qualsiasi ambito della conoscenza. Sarà un momento topico e cambierà radicalmente la storia mondiale: in quanto ora la nostra esistenza è giustificata dal fatto che siamo in cima alla catena alimentare, ma nel momento che si autocreerà un’entità che non ha bisogno di alimentarsi di pasta e carne, noi a che esisteremmo a fare se quell’entità ha solo bisogno dell’energia solare onde perpetuarsi all’infinito?

Se prima o poi saremo sostituiti dall’intelligenza artificiale, per tal motivo dobbiamo iniziare a prepararci psicologicamente. Portland, Oregon, 7 aprile 2016: l’agenzia per i progetti di ricerca avanzata di difesa degli Stati Uniti d’America – meglio nota come DARPA (Defense Advanced Research Projects Agency) – ha lanciato il prototipo della nave antisommergibile a pilotaggio remoto Seahunter che segna l’inizio di una nuova èra. A differenza dei droni Predator e dell’Air Force, questa nave non ha bisogno di operatore remoto ed è realizzata per poter navigare da sola evitando ogni tipo di ostacolo in mare; ha carburante sufficiente per resistere in mare fino a tre mesi ed è molto silenziosa. Inoltre trasmette informazioni criptate ai servizi segreti della Difesa. Quando il Dipartimento della Difesa statunitese afferma che un sottomarino a pilotaggio remoto non sarebbe lanciato senza un controllo a distanza dice il vero. Ma c’è dell’altro, ossia che la Russia ha sviluppato un sottomarino a pilotaggio remoto con un arma nucleare. Questo significa che prima che la difesa statunitense sia in grado di rispondere a un sottomarino a pilotaggio remoto con un’arma nucleare a bordo passeranno tra i 5 e i 15 anni.

Si è sempre detto che il drone da guerra, sostituisce il soldato in carne e ossa, che diventa un operatore “da playstation” remota. Da qui l’idea del drone quale succedaneo del militare umano, a cui verrebbe garantita una sicurezza totale, in modo che eviti pericoli inutili. Però si era dimenticato che il remote control può essere intercettato dal nemico e mutare obiettivi colpendo il suo stesso esercito. A questo punto, però, bisognerebbe rendere i droni completamente autonomi. In drone del genere sarebbe una macchina di morte passerebbe via interi eserciti, per questo bisogna fare attenzione ed evitare una loro proliferazione sui campi di battaglia; qualsiasi tipo di incidente un incendio o anche un piccolo guasto innescherebbe un meccanismo di “impazzimento” che indurrebbe la macchina ad uccidere chiunque. Sviluppare robot killer è possibile. La tecnologia di riconoscimento facciale ha fatto passi da gigante e le intelligenze artificiali sanno riconoscere volti e individuare bersagli. In effetti già oggi i droni sono utilizzati per individuare e colpire individui, basandosi sulle sembianze del volto: uccidono e feriscono.

L’applicazione dell’intelligenza artificiale alla tecnologia militare cambierà per sempre la guerra; è possibile che le macchine autonome dell’esercito possano prendere decisioni sbagliate, mietendo così decine di migliaia di vittime fra amici, nemici e civili inermi. E se arrivassero persino a ignorare le istruzioni ricevute? Se fosse così, se si progetteranno macchine di morte a guida autonoma e indipendente dai comandi umani, potremmo ritrovarci di fronte a un destino violento di estinzione del genere umano?

Se molti esperti e studiosi sono d’accordo che gli umani saranno artefici della propria violenta rovina prima e distruzione dopo, altri ritengono che il progresso dell’intelligenza artificiale possa essere la chiave per la salvezza dell’umanità.

Los Angeles, Maggio 2018: presso l’Università della California la professoressa Veronica Santos lavora allo sviluppo di un progetto per la creazione di robot sempre più simili all’essere umano in grado di percepire il contatto fisico e di reagire ad esso, ed ella sta sperimentando anche diverse modalità di sensibilità tattile del robot. Combinando tutto questo con l’intelligenza artificiale, un giorno potrà esistere un robot umanoide in grado di esplorare lo spazio arrivando fino a Marte: i robot umanoidi sono sempre più una realtà che spazia dal campo delle neuroprotesi alle macchine per la colonizzazione di corpi celesti.

Sebbene l’utilizzo di robot umanoidi sia un tema piuttosto controverso, questo settore ha il merito di avere grandi prospettive soprattutto per chi intende investire nel campo: finanziare progetti di sviluppo potrebbe rivelarsi utile nella creazione di esseri umani artificiali praticamente impossibili da distinguere da individui in carne ed ossa.

Però questi umanoidi potrebbero verosimilmente manifestare desideri e provare dolore così come mostrare una vasta gamma di sentimenti ed emozioni. In realtà è noto che noi non sappiamo cosa sia veramente un’emozione, quindi saremmo veramente capaci di crearne una artificiale, oppure commetteremo errori fatali in fase dell’elaborazione del software? Se un robot sarà in grado di distinguere tra buono e cattivo e conoscere la sofferenza. sarà questo il primo passo verso la possibilità di sviluppare sentimenti e una coscienza?

Riflettiamo. Sebbene i computer superino gli esseri umani nell’elaborazione dei dati, impallidiscono di fronte alla complessità e alla raffinatezza del sistema nervoso centrale. Nell’aprile 2013 l’azienda tecnologica giapponese Fujitsu ha provato a simulare la rete di neuroni nel cervello utilizzando uno dei più potenti supercomputer del pianeta; pur dotato di 82mila processori tra i più veloci al mondo, ci sono voluti più di 40 minuti per simulare solo un secondo del 1% dell’attività del cervello umano (Tim Hornyak, Fujitsu supercomputer simulates 1 second of brain activity in https://www.cnet.com/culture/fujitsu-supercomputer-simulates-1-second-of-brain-activity/)

Afferma l’astrofisico di origine giapponese Michio Kaku – laureato summa cum laude all’Università di Harvard:

«Cinquanta anni fa abbiamo commesso un grosso errore pensando che il cervello fosse un computer digitale. Non è così! Il cervello è una macchina capace di imparare, che si rigenera da sola al termine del suo compito. I bambini hanno la capacità di imparare dai propri errori: quando si imbattono in qualcosa di nuovo imparano a capire come funziona interagendo con il mondo. È proprio questo ciò di cui abbiamo bisogno e per farlo ci serve un computer all’altezza: un computer quantistico».

A differenza dei computer di oggi che si basano sui bit – una serie binaria di 0 e 1 per poter elaborare i dati – i computer quantistici utilizzano bit quantici, o qubit (quantum bit) – che possono utilizzare 0 e 1 allo stesso tempo. Ciò consente loro di eseguire milioni di calcoli simultaneamente come fa più o meno il cervello umano.

Kaku: «I robot sono macchine e come tali non pensano e non hanno una coscienza di silicio, non sono consapevoli di che sono e dell’ambiente circostante. Bisogna riconoscere però che è solo una questione di tempo prima che riescano ad avere un po’ di consapevolezza».

È davvero possibile che le macchine diventino entità senzienti pienamente consapevoli di se stesse e dell’ambiente circostante?

Kaku: «Possiamo immaginare un tempo futuro in cui i robot saranno intelligenti come un topo, e dopo il topo come un coniglio, e poi un gatto, un cane, fino a diventare scaltri come una scimmia. I robot non sanno di essere macchine; e penso che forse entro la fine di questo secolo i robot cominceranno a rendersi conto del fatto che sono diversi, che sono qualcos’altro rispetto al proprio maestro».

Giancarlo Elia Valori