• Marco Caridi

La profezia di Isaac Asimov

Potrà mai una macchina "intelligente" sostituirsi all'uomo? Tra fantascienza e realtà.

Isaac Asimov, scrittore, autore di libri di fantascienza

Nel 1950, in un articolo dal titolo "Computing Machinery and Intelligence", il grande scienziato e matematico Alan Turing, padre dell’intelligenza artificiale e della computazione, parte dalla domanda “Le macchine possono pensare?” e propone di darvi risposta utilizzando un test: il famoso "test di Turing". Al test partecipano un umano, detto esaminatore, e due entità da esaminare: umana la prima ed artificiale la seconda, entrambe chiuse in due stanze diverse. L'interrogante deve cercare di capire, facendo delle domande attraverso un terminale, quale dei due interlocutori sia umano e quale la macchina. Per superare il test e dimostrare di essere pensante la macchina deve “confondersi” con l’umano, deve pertanto essere difficile per l’esaminatore distinguere l’uomo dalla macchina. Confondersi, ad esempio, rispondendo più lentamente ad un calcolo complesso come farebbe l’umano utilizzando carta e penna e non una calcolatrice. Per questo il test è stato denominato anche “The imitation game”, il gioco dell’imitazione, ben rappresentato nell’omonima pellicola.

Da allora ad oggi la scienza e le tecnologie hanno fatto passi da gigante in questa direzione, basti pensare a ciò che accadde nel Maggio del 1997, ben 47 anni dopo, quando il calcolatore IBM denominato Deep Blue, batté il più forte scacchista umano del mondo, Garry Kasparov. Allora nessuno sostenne che il genere umano avesse finalmente costruito una macchina pensante. Il calcolatore IBM aveva dimostrato semplicemente, si fa per dire, di avere un comportamento intelligente superiore allo sfidante. Peccato che non avesse la minima idea di cosa si provasse nel giocare a scacchi, applicò un algoritmo matematico con il quale riuscì a vincere. Più recentemente nel 2017, un gruppo di ricercatori del OpenAI Institute di Elon Musk, in un'intervista spiegarono che i loro robot digitali avevano sviluppato un inglese abbreviato per comunicare più velocemente. Nello stesso periodo, poche settimane dopo, in un laboratorio di ricerca della azienda americana Facebook due computer, Alice e Bob, hanno iniziato un dialogo in lingua inglese ma, rapidamente, hanno modificato il linguaggio naturale umano sino a renderlo incomprensibile ai presenti. Hanno preferito, secondo i loro canoni di maggiore efficienza, un idioma che si è discostato a tal punto da quello iniziale da indurre ad interrompere l’esperienza. Insomma, i due computer avevano iniziato ad andare per la loro via senza alcun controllo da parte dei ricercatori che non hanno potuto fare altro che staccare la spina. Che accadrebbe se, tra qualche tempo, non si potesse staccare la spina? Se le macchine acquisissero la capacità di trasferire la conoscenza ad altre simili? Se fossero in grado di trovare dei punti di ricarica autonomamente? A quali evoluzioni assisteremmo impotenti? Potrebbero le macchine spingere il loro pensiero sino a raggiungere consapevolezza di sé stesse? Indubbiamente interrogativi inquietanti che fanno ritornare alla mente il presupposto delle saghe di Terminator o Blade Runner con i suoi replicanti o addirittura le tre leggi della robotica di Isaac Asimov, saggiamente definite nei sui libri di fantascienza, a questo punto neppure tanto lontana, al fine di mettere un argine allo strapotere intellettivo dei cervelli elettronici su quelli umani:

1) Un robot non può mai causare danno a un essere umano;

2) Un robot deve sempre obbedire agli ordini degli umani a meno che questi non violino la prima legge;

3) Un robot deve salvaguardare la propria incolumità a meno che questo non infranga le prime due leggi.

Oggi con il termine intelligenza artificiale si intende quella branca dell’informatica in cui le macchine risolvono problemi, decidono, capiscono, prevedono utilizzando delle rappresentazioni matematiche delle capacità cognitive dell’uomo. Tuttavia, probabilmente perché ad oggi non c’è una spinta commerciale sufficiente, si è rimasti confinati ancora ad un utilizzo dell’intelligenza artificiale controllato, atto ad automatizzare digitalmente processi e funzioni a sostegno e beneficio delle attività umane che si sopraelevano ad un ruolo di controllo di processo con enormi vantaggi soprattutto legati all’efficienza ed alla efficacia. Il nostro cervello si differenzia da sistemi intelligenti artificiali di questo tipo, oltre che per gli aspetti chimici e neurologici, per il saper vivere l'esperienza, percepire il tempo che passa, cogliere l’attimo fuggente, misurare continuamente gli eventi, storicizzarli e trasformarli in esperienza.

Del resto il mondo che ci circonda è definito da quello che siamo in grado di misurare con i nostri sensi. Pertanto ci possiamo trovare d’accordo nel ritenere che ad una macchina, per essere definita pensante, non serve solo l'intelligenza, bensì anche la capacità di vivere l’esperienza una consapevolezza interiore che possiamo chiamare “coscienza”.

E' necessario inoltre sottolineare che l'essere coscienti è separato dall'essere vivi. Essere vivi significa essere costituiti da molecole basate sulla replicazione del DNA, essere coscienti significa essere in grado di fare esperienza degli eventi che occorrono nel corso della vita. Nella letteratura del fantastico, a ripensarci bene, gli esseri artificiali sono sempre stati dotati di coscienza; gli autori non si sono preoccupati dell'intelligenza delle loro creature ma della loro capacità di essere soggetti autonomi di decisioni ed obiettivi. Stanley Kubrick nel film capolavoro “2001 Odissea nello spazio”, ad esempio, è riuscito a proporre un essere artificiale, privo di corpo ma dotato di coscienza ed emozioni simili a quelle umane denominato HAL che in qualche modo rappresenta il vero grande interprete delle speranze riposte nella disciplina "intelligenza artificiale".

Tuttavia è indubbio che affrontare il tema della coscienza da un punto di vista ingegneristico non sembra, finora, avere suscitato l'interesse della comunità scientifica internazionale. Anzi, al di fuori della fantascienza, è incerta la collocazione temporale della nascita di una disciplina denominata coscienza artificiale o ingegneria della coscienza.

Quando un essere umano fa esperienza del mondo coglie degli aspetti qualitativi della realtà difficili da essere razionalizzati, qualità spesso relegate nel chiuso di una dimensione spirituale che non si vuole aggredire scientificamente. Tuttavia le qualità esistono e definire una metrica che le rappresenti potrebbe essere la chiave di volta che potrà portare alla costruzione di una coscienza artificiale. Del resto finora è stato possibile eludere il problema perché non vi erano le condizioni tecnologiche e soprattutto le convenienze di mercato per poter costruire un essere cosciente artificiale.

Oggi che il gap uomo macchina si sta riducendo sempre più, sia come capacità di ragionamento sia come struttura fisica, il problema della realizzazione di una coscienza artificiale è sempre più vicino. Ed allora in attesa che ciò accada, seguendo le affermazioni di Albert Einstein, secondo cui le macchine sono brave a risolvere problemi ma non in grado di porne di nuovi, eccone alcuni: Se la realtà aumentata fosse arricchita con entità coscienti artificiali? Se entità di questo tipo fossero scelte come concorrenti di reality (o virtuality?) come il grande fratello? Se la figura della badante degli anziani divenisse un’amica artificiale perfetta? Se la propria casa si trasformasse in una compagna di vita cosciente e pensante con la quale dialogare per migliorarne la quotidiana gestione?

Ed infine cosa faremmo se un giorno un amico artificiale ci dicesse: “Oggi a che ora mi spegni? Mi sento solo vorrei restare un po di più a parlare con te”?

56 visualizzazioni0 commenti

Post recenti

Mostra tutti