Intelligenza Artificiale: cosa dobbiamo aspettarci?
«The Master created humans first as the lowest type, most easily formed. Gradually, he replaced them by robots, the next higher step, and finally he created me, to take the place of the last humans».
I, Robot, I. Asimov
Pochi conoscono Isaac Asimov per la sua carriera all’Università di Boston, ma molti lo conoscono per la sua attività da scrittore. Come una delle voci più influenti della fantascienza dello scorso secolo, Asimov ha plasmato l’immaginario collettivo su scenari in cui macchine e uomini convivono. Celebri sono le trasposizioni cinematografiche di alcuni dei suoi racconti, come “L’uomo bicentenario” (1999), interpretato da Robin Williams, e “Io, robot” (2004), che vede Will Smith nella parte del protagonista.
E se negli ultimi anni si è assistito ad un rinnovato interesse, nel mondo cinematografico, per i concetti di intelligenze artificiali che raggiungono consapevolezza di sé – con i film “Transcendence” (2014), “Ex Machina” (2015) e la serie capolavoro firmata Jonathan Nolan e Lisa Joy “Westworld” (2016-) – il dibattito su di esse non è mai rimasto ristretto all’ambito della settima arte.
Una macchina può essere in grado di “pensare”?
Un discorso sulle intelligenze artificiali non può che partire da Alan Turing, matematico, filosofo, logico e crittografo britannico, padre dell’informatica moderna e del concetto di algoritmo. L’idea più rivoluzionaria di Turing fu quella della sua macchina, la Turing machine, pensata per poter riprodurre il pensiero umano grazie ad uno scanner in grado di leggere e modificare, muovendosi avanti e indietro lungo un nastro infinito, una serie di simboli. E se Turing offrì una visione strettamente meccanica del pensiero umano, così matematico da poter essere ricapitolato da una macchina, al contempo ideò anche un test per poter capire se la suddetta macchina fosse davvero intelligente: il Turing test. L’idea di base era quella di avere un investigatore umano chiamato a cercare di distinguere, semplicemente conversando con vari interlocutori, quali tra essi non fosse umano. Se l’investigatore non fosse stato in grado di riconoscere la macchina, allora la suddetta macchina sarebbe dovuta essere considerata intelligente.
Ma è sufficiente che una macchina passi il Turing test per etichettarla come “intelligente”? Secondo coloro che sostengono la teoria della weak AI (intelligenza artificiale debole), la risposta è no: programmi artificiali non saranno mai genuinamente intelligenti, ma solo una simulazione di intelligenza, un’imitazione estremamente fedele che, però, non sarà mai nulla di più complesso. A contrapporsi a questa visione si schierano i sostenitori della strong AI, secondo cui, invece, sarebbe possibile creare una macchina realmente capace di pensare, un’intelligenza artificiale “genuina”, in grado di sviluppare nuovi livelli di sensazioni e abilità.
Etica e AI: dovremmo preoccuparci?
L’idea di creare artificialmente qualcosa in grado di pensare ha sempre affascinato l’uomo, in uno slancio verso la realizzazione di un desiderio di onnipotenza. Dall’altro lato, però, questa spinta è sempre stata accompagnata dal timore di una possibile ritorsione, una ribellione al giogo capace di mettere in discussione gli equilibri di potere con gli umani. E se questo può sembrare, a prima vista, solo un esercizio mentale, alcuni dei più grandi nomi contemporanei non sono dello stesso avviso.
Elon Musk, patron di Tesla, SpaceX e secondo uomo più ricco del mondo, ha spesso parlato della necessità di regolare al più presto il campo dell’intelligenza artificiale, che definisce come «la più grande minaccia esistenziale» per il genere umano. Dello stesso avviso era anche il cosmologo Stephen Hawking, che, parlando della possibilità di generare macchine in grado di sorpassare l’intelligenza umana, sosteneva che «gli uomini, che sono limitati da una lenta evoluzione biologica, non avrebbero la possibilità di competere e sarebbero sostituiti».
Non tutti, però, vedono un futuro così buio. Roger Penrose, matematico, fisico e cosmologo britannico, che fu insegnante e poi collega proprio di Hawking, sostiene che le macchine «non ci sostituiranno, perché non hanno nessuna consapevolezza cosciente di ciò che è il mondo». Melanie Mitchell, professoressa di informatica alla Portland State University, è dello stesso avviso: «loro [che temono le “superintelligenze artificiali”] sottovalutano la complessità dell’intelligenza umana. L’intelligenza umana è un sistema fortemente integrato in cui i diversi attributi – comprese le emozioni, i desideri e un forte senso di individualità e autonomia – non possono essere facilmente separati».
E se nessuna delle due posizioni sembra ancora aver prevalso sull’altra, sicuramente il dibattito rimane centrale nella definizione dei contorni di questa disciplina, le cui applicazioni pratiche entreranno sempre di più a far parte del nostro quotidiano.