top of page

Le leggi dell'intelligenza artificiale


L'intelligenza artificiale (AI) con la robotica rappresentano il “solito” tentativo dell'uomo di seguire quell'innato istinto di imitare se stesso. Da sempre infatti l'uomo ha manifestato questa ambizione.

Del resto anche nelle proiezioni cinematografiche più fantascientifiche i personaggi extraterrestri sono dipinti con sembianze umane, i cosiddetti androidi o replicanti, che per quanto deformati, sono dotati comunque di gambe, braccia, occhi, testa ecc. ecc. Insomma il nostro massimo raggiungimento e limite siamo noi stessi!

Ma cosa si intende per Intelligenza Artificiale? Si tratta di un insieme di tecnologie informatiche ed ingegneristiche che si prefiggono lo scopo di creare dei sistemi che apprendano automaticamente dal mondo esterno imitando il comportamento del nostro cervello. Intelligenza infatti deriva da: “Intelligere” unione di due parole latine “inter” + “legere” che in italiano significano “leggere tra”, “saper distinguere”, “scegliere”. Un sistema intelligente pertanto è caratterizzato dalla capacità di discriminare e generare.

Si tratta quindi di un sistema autonomo in perfetta integrazione con ogni contesto di vita dell'uomo: industria, ufficio, casa ecc. ecc.

Ma che tipo di sistemi intelligenti esistono? I primi furono introdotti in ambito industriale intorno al 1950 con lo scopo di “automatizzare” i processi produttivi sostituendo l'uomo nei compiti più gravosi.

Fu proprio allora che entrò nel gergo comune la parola “Robot”: un termine derivato dalla parola Cecoslovacca “Robota” che significa “lavoro pesante”. Come la sua genesi rivela, i primi robot non erano dotati di particolare intelligenza ma piuttosto venivano usati per la loro grande forza e capacità di movimentare con elevata precisione le parti pesanti per soddisfare le esigenze della catena di produzione.

Via via nel tempo tali sistemi sono stati dotati di un calcolatore elettronico in grado di eseguire istruzioni secondo un programma, fu così che nacque l'automazione industriale parte integrante di quello che oggi viene chiamato “Industria 4,0”.

Oggi la parola robot nella forma più abbreviata “bot” viene utilizzata, forzandone però il significato, in moltissimi contesti come sinonimo di automatico, autonomo, intelligente e non più di forzuto.

Dalla automazione industriale a quella digitale in pieno corso sono stati fatti passi da gigante.

Passi così lunghi da richiedere un momento di misura e controllo.

Basti pensare alla capacità di comunicare. E’ forse una prerogativa solo umana? A molti verrebbe di rispondere: “certamente”!

Ma se guardiamo i risultati degli ultimi passi che la tecnologia ha compiuto nella direzione della recplica cognitiva umana forse un dubbio potrebbe sorgere. Oggi l’AI è in grado di dialogare, commentare, discutere, inventare!

Potrebbe sembrare fantascienza eppure è sin dal primo dopoguerra che stiamo studiando, in quel meraviglioso ambito della ricerca scientifica cognitiva, le cosiddette macchine pensanti e parlanti. Per queste ragioni il momento di misura e controllo di cui prima si riferisce alla esigenza di accertare che da un punto di vista etico e legislativo l’AI sia adottata secondo canoni prestabiliti e controllabili. Basti pensare, solo a titolo di esempio, a “Lost Tapes of the 27 Club”. Un EP (una sorta di mini album audio digitale) uscito lo scorso anno che vede protagonisti un insieme di artisti che in comune hanno la prematura età di quando ci hanno lasciato: 27 anni, di Kurt Cobain, Jim Morrison, Ami Winehouse e Jimi Hendrix. Grazie all’AI, utilizzando la memorabile storia di questi artisti, si è riusciti a riprodurre inediti con la loro voce, il loro stile la loro arte nel fare musica. Ma, a prescindere dalle finalità perseguite, sicuramente nobili e preziose, e dall’originalità dell’idea di impiegare l’AI in una missione come questa, la vicenda accende, una volta di più, i riflettori su una questione che è ormai arrivato il momento di affrontare.

Gli algoritmi scrivono parole, sono autori artificiali, si ispirano al passato per produrre opere originali in qualsiasi settore artistico.

Si potrebbe in questi casi parlare di violazione del diritto d’autore?

La creatività artificiale, probabilmente, merita forme di tutela diverse da quelle che sin qui hanno protetto e promosso la creatività degli uomini.

Dall’altro canto però è affascinante pensare che attraverso queste metodologie matematiche si riesce a riportare alla luce qualsiasi grande artista del passato rendendolo, sotto certi aspetti, eterno ed immortale.

Altro esempio di momento di riflessione è il rischio di considerare a priori vero qualsiasi testo generato da un robot parlante come ChatGPT o chi per esso (non lui).

Che fine farebbero in questo contesto i libri sacri della verità come le enciclopedie Garzanti che tutti noi abbiamo in casa?

Possiamo permettere il diffondersi di quella che alla resa dei conti altro non è che una conoscenza collettiva media con tutti i suoi giudizi e pregiudizi razionalizzata dentro un automa? E possiamo permettere che tale rischio di disinformazione possa sovrascrivere le assolute verità che sono state stampate nei milioni di copie delle enciclopedie di ogni genere?

Per tutte queste ragioni la Commissione europea ha proposto l’AI Act il 21 aprile 2021.

L’obiettivo è quello di introdurre un quadro normativo e giuridico comune per l’intelligenza artificiale.

Il campo di applicazione dell’AI Act comprende tutti i settori (ad eccezione di quello militare) e tutti i tipi di intelligenza artificiale. L’AI Act è la prima iniziativa al mondo che fornisce un quadro giuridico per l’intelligenza artificiale (AI). Rappresenta il tentativo più ambizioso di regolare le tecnologie AI fino ad oggi, delineando un approccio regolamentare trasversale all’uso dei sistemi AI in tutta l’Unione europea (UE) e il suo mercato unico.

L’AI Act sottolinea la necessità di un ecosistema di garanzia AI efficace. Quali sono i suoi contenuti in breve?

Il regolamento propone una classificazione delle applicazioni dell’AI rispetto al rischio. A queste sarà dedicata un’attenzione particolare, saranno infatti proposte alcune norme specifiche per renderle potenzialmente meno pericolose. Sono inoltre state definite alcune regole specifiche, non soltanto per coloro che sviluppano le applicazioni di intelligenza artificiale particolarmente rischiose, ma anche per i loro utilizzatori. Il quadro normativo proposto è basato sul rischio e diviso su quattro livelli. Questo può essere: inaccettabile, alto, limitato o minimo/assente.

· Rischio inaccettabile

Con il regolamento per l’intelligenza artificiale tutti gli strumenti che saranno considerati un rischio per la sicurezza delle persone saranno banditi. Alcuni esempi di strumenti vietati sono quelli basati sul «social scoring» e i giocattoli che incoraggiano un comportamento potenzialmente pericoloso.

· Ad alto rischio

Il secondo livello di rischio è quello alto. In questo ambito, il regolatore include diversi utilizzi dell’intelligenza artificiale. Tra i più importanti ci sono l’uso dell’AI nelle infrastrutture critiche (trasporti), che potrebbero mettere la vita dei cittadini in pericolo; nei sistemi di formazione scolastica o professionale, che potrebbero determinare l’accesso al diritto allo studio; nei componenti di sicurezza dei prodotti, come per esempio su robot che effettuano operazioni chirurgiche; nei sistemi di gestione dei lavoratori, come quelli utilizzati per l’analisi dei CV; nei servizi pubblici e privati essenziali, ossia quelli che permettono di accedere, per esempio, a un prestito; nei sistemi che permettono l’analisi sull’affidabilità delle prove e che possono potenzialmente privare gli individui delle loro libertà fondamentali; nei sistemi per il controllo e la gestione dei confini e delle migrazioni; nei sistemi per amministrazione della giustizia e dei processi democratici.

· Rischio limitato

Con sistemi di intelligenza artificiale a rischio limitato si intendono quei sistemi che hanno specifici requisiti di trasparenza. Tra questi sistemi sono annoverati i chatbot, per i quali gli sviluppatori devono mettere a disposizione degli utenti informazioni chiare riguardo al loro status di macchine e non di umani senzienti, così da permettere loro di interrompere l’utilizzo prima di utilizzarli, se desiderato.

I sistemi di intelligenza artificiale in cui il rischio è minimo o assente possono essere utilizzati senza problemi. Alcuni esempi di sistemi di intelligenza artificiale di questo tipo sono i videogiochi che utilizzano queste tecnologie così come i filtri anti-spam.

Leggere di una presa di posizione cosi formale contro quello che potremmo chiamare progresso fa paura anche nel senso opposto. Se solo pensassimo a quanti strumenti automatici che usiamo con disinvoltura oggi siano ad alto rischio, magari non dal punto di vista dell’informazione che se ne ricava ma da quello della sicurezza. Si pensi ad esempio al pilota automatico di un aereo!

Cosa penserebbe Isaac Asimov di tutto questo? Isaac Asimov è stato uno dei primi scrittori di fantascienza a immaginare un futuro in cui gli esseri umani e le macchine intelligenti convivono. Nel suo romanzo “Io, Robot”, Asimov ha introdotto le tre leggi della robotica che sono diventate un punto di riferimento per la scienza e la tecnologia. Eccole:

1. Un robot non può mai causare danno a un essere umano;

2. Un robot deve sempre obbedire agli ordini degli umani a meno che questi non violino la prima legge;

3. Un robot deve salvaguardare la propria incolumità a meno che questo non infranga le prime due leggi.

Non basterebbero queste? Asimov aveva visto giusto quando ha immaginato le tre leggi della robotica.

Tuttavia, l’AI Act rappresenta un passo avanti nella regolamentazione dell’intelligenza artificiale e nella protezione dei diritti umani.

Le leggi di Asimov sono state scritte per i robot positronici, mentre l’AI Act si applica a tutti i tipi di intelligenza artificiale. Inoltre, le leggi di Asimov non tengono conto delle sfumature etiche e sociali che possono sorgere con l’uso dell’intelligenza artificiale. Tutto questo fa paura?

Non dovremmo averne, la profonda e veloce diffusione di nuove soluzioni tecnologiche che prima erano ad uso esclusivo delle industrie e dei centri ricerca oggi stanno contribuendo ad un cambiamento “darwiniano” del nostro essere. Si parla di “simbionte” come congiunzione biotecnologica dell'essere umano e delle tecnologie che usa e di cui non può fare a meno.


37 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page