top of page
Immagine del redattoreMarco Caridi

Il Papa al G7, un pontefice per la prima volta al vertice per parlare di intelligenza artificiale


Papa Francesco e il Presidente del Consiglio, Giorgia Meloni

Il G7 di quest'anno in Italia si annuncia già storico per la presenza di Papa Francesco, per la prima volta nella storia del summit, infatti, un Pontefice parteciperà al G7 per parlare nella sessione dedicata all'intelligenza artificiale, un tema che ha attirato l'attenzione di governi e leader di tutto il mondo per le sue implicazioni etiche e tecnologiche.

La presenza del Papa è stata confermata dopo l'annuncio del presidente del Consiglio italiano Giorgia Meloni, che ha ringraziato il Pontefice per aver accettato l'invito. L'evento si terrà dal 13 al 15 giugno a Borgo Egnazia, in Puglia, e riunirà i leader dei Paesi membri del G7: Stati Uniti, Canada, Francia, Regno Unito, Germania e Giappone, oltre ai partecipanti esterni come il Vaticano. Meloni ha sottolineato quanto sia importante il contributo della Santa Sede sul tema dell'intelligenza artificiale, in particolare con l'iniziativa del 2020 "Rome Call for AI Ethics", che ha promosso una discussione sull'etica degli algoritmi.

La partecipazione del Papa al G7 solleva questioni importanti sul ruolo della tecnologia nel mondo moderno, ma fa nascere in tutti noi anche una domanda cruciale: mentre si discute di intelligenza artificiale, non ci sono altre questioni di grande urgenza che meritano attenzione? Guerre, povertà, fame e crisi ambientali sono problemi che richiedono soluzioni immediate, e la presenza del Papa potrebbe essere un'opportunità per ricordare che l'AI è solo uno strumento. Un mezzo per migliorare la nostra vita, ma che non può sostituire l'umanità stessa. Nel suo intervento, Meloni ha affermato che l'intelligenza artificiale è "la più grande sfida antropologica di quest'epoca", sottolineando i rischi e le opportunità che porta con sé. Tuttavia, mentre riflettiamo su come regolare questa tecnologia per garantire che sia centrata sull'uomo, dobbiamo ricordarci che esistono problemi concreti che affliggono il mondo oggi. L'intelligenza artificiale può aiutare a risolvere molti problemi, ma non deve distoglierci dalle questioni fondamentali di equità, giustizia e umanità.

In un mondo in cui il divario tra ricchi e poveri è in aumento, la partecipazione del Papa al G7 può essere un richiamo a mantenere l'uomo al centro di ogni discorso tecnologico, senza dimenticare che il vero progresso si misura dalla capacità di migliorare la vita di tutti, non solo di chi ha accesso alle ultime innovazioni tecnologiche.

Ma come è nata questa diffusione dell’AI al punto tale da destare le attenzioni dei governatori del mondo e persino del Vaticano? Per chi ha seguito gli articoli che abbiamo pubblicato sul tema negli ultimi tre anni sicuramente può avere un quadro ampio di quanto questa tecnologia possa essere dirompente. L'intelligenza artificiale (AI) e la robotica incarnano il desiderio radicato dell'umanità di riprodurre se stessa attraverso la tecnologia.

Questa aspirazione non è nuova ma ha attraversato secoli e culture, basti ricordare i racconti antichi, dove persino le divinità creavano esseri a loro immagine, o guardare le opere di letteratura e cinema fantascientifici, dove gli alieni sono dotati spesso sembianze umane. Pensiamo a film come "Blade Runner" o "Star Trek", dove i personaggi extraterrestri sono quasi sempre simili a noi: braccia, gambe, testa, occhi, e altre caratteristiche familiari.

Anche se queste rappresentazioni includono variazioni fantasiose, il nostro punto di riferimento rimane sempre l'essere umano. Allora, cosa si intende esattamente per intelligenza artificiale? Il concetto racchiude una varietà di tecnologie informatiche e ingegneristiche che puntano a creare sistemi in grado di apprendere automaticamente dal mondo che li circonda e di adattarsi ad esso. Questi sistemi cercano di emulare il modo in cui il nostro cervello processa le informazioni, prendendo decisioni e risolvendo problemi. Un aspetto interessante è la versatilità di questi sistemi intelligenti possono essere integrati in diversi ambiti della vita quotidiana. Li troviamo nell'industria, dove i robot automatizzano processi produttivi, negli uffici, dove software avanzati aiutano a gestire compiti complessi, e persino nelle nostre case, con dispositivi intelligenti che possono controllare l'illuminazione, la temperatura e persino fare il caffè al mattino. La loro capacità di adattarsi a una vasta gamma di situazioni è ciò che li rende così rivoluzionari ma, allo stesso tempo, potenzialmente pericolosi.

Vediamo in che modo: pensiamo alla capacità di comunicare ovvero di veicolare informazioni, è una caratteristica esclusivamente umana?

Molti risponderebbero di si, ma se guardassimo ai progressi recenti nella tecnologia che tenta di replicare le abilità cognitive umane, potremmo iniziare a dubitarne. Oggi, l'intelligenza artificiale può conversare, discutere, commentare e persino inventare storie!

Potrebbe sembrare fantascienza, eppure fin dal secondo dopoguerra, abbiamo studiato le cosiddette "macchine pensanti e parlanti" nell'affascinante campo della ricerca cognitiva. Ecco perché è necessario un controllo rigoroso e una regolamentazione chiara per garantire che l'uso dell'AI rispetti standard etici e legali. Prendiamo, ad esempio, il progetto "Lost Tapes of the 27 Club", un mini-album uscito qualche anno fa che riunisce voci di artisti scomparsi prematuramente a 27 anni, come Kurt Cobain, Jim Morrison, Amy Winehouse e Jimi Hendrix.

Grazie all'intelligenza artificiale, è stato possibile ricreare nuove canzoni con il loro stile, la loro voce e la loro arte. Tuttavia, sebbene l'intento sia nobile e il risultato impressionante, questa iniziativa solleva interrogativi importanti. Quando gli algoritmi possono scrivere testi, diventando autori artificiali che si ispirano al passato per creare opere originali, dovremmo preoccuparci di una potenziale violazione del diritto d'autore?

È possibile che la creatività artificiale richieda una tutela diversa rispetto a quella applicata alla creatività umana. D'altra parte, è affascinante pensare che questi metodi matematici possano riportare alla luce i grandi artisti del passato, rendendoli in qualche modo eterni.

Un altro aspetto che richiede attenzione è il rischio di considerare automaticamente vero qualsiasi testo generato da un chatbot come ChatGPT o simili. Cosa accadrebbe ai libri di riferimento come le enciclopedie Garzanti che molti di noi hanno a casa, se il loro contenuto fosse messo in dubbio da queste nuove fonti di informazione?

Possiamo davvero permettere che una conoscenza collettiva media, generata da algoritmi, inizi a sovrascrivere le verità assolute raccolte in milioni di copie di enciclopedie e libri di ogni genere? Si tratta di un rischio che non possiamo ignorare, poiché la disinformazione potrebbe diffondersi rapidamente e avere effetti indesiderati sulla nostra percezione della realtà.

Per affrontare queste questioni, il 21 aprile 2021, la Commissione europea ha presentato l'AI Act, con l'intento di creare un quadro normativo e giuridico uniforme per l'intelligenza artificiale.

L'AI Act copre tutti i settori tranne quello militare e riguarda ogni tipo di tecnologia AI. Questa iniziativa è la prima al mondo a stabilire una struttura giuridica per l'intelligenza artificiale, rappresentando il tentativo più significativo finora di regolamentare le tecnologie AI, stabilendo un approccio trasversale per l'uso di questi sistemi in tutta l'Unione europea (UE) e nel suo mercato unico.

Uno degli aspetti fondamentali dell'AI Act è la creazione di un ecosistema di garanzia efficace per l'AI.

Come funziona? Il regolamento propone una classificazione delle applicazioni dell'intelligenza artificiale in base al livello di rischio.

Le applicazioni più rischiose saranno soggette a norme specifiche per minimizzare i potenziali pericoli. Inoltre, l'AI Act stabilisce regole mirate non solo per chi sviluppa applicazioni AI ad alto rischio, ma anche per chi le utilizza. Queste misure hanno lo scopo di assicurare che le tecnologie AI siano sviluppate e usate in modo responsabile, proteggendo la sicurezza e i diritti degli individui. Quando leggi di una posizione così decisa contro ciò che potrebbe essere considerato progresso, è naturale provare una certa apprensione, anche per motivi diversi. Se riflettiamo su quanti strumenti automatici utilizziamo ogni giorno senza pensarci troppo, ci rendiamo conto che alcuni di essi potrebbero rappresentare un rischio elevato, non tanto per i dati che elaborano, quanto per la sicurezza stessa. Pensiamo, ad esempio, al pilota automatico di un aereo! Sono sufficienti queste leggi per gestire l'intelligenza artificiale?

Le nuove soluzioni tecnologiche si stanno diffondendo rapidamente, passando da un uso esclusivo di industrie e centri di ricerca a diventare parte integrante della nostra vita quotidiana. Questo cambiamento "darwiniano" sta trasformando il modo in cui viviamo e lavoriamo. Oggi, si parla di "simbionte" per descrivere la connessione sempre più stretta tra noi esseri umani e le tecnologie di cui non possiamo più fare a meno.

Questa interazione tra biologia e tecnologia potrebbe cambiare radicalmente il nostro futuro, ponendo nuove sfide, ma anche offrendo grandi opportunità. Concludiamo questo articolo con una curiosità, la religione induista ha pensato bene di utilizzare a proprio favore le nuove tecnologie creando un chatbot denominato GitaGPT che è stato addestrato con tutti i trattati della religione Hindu, cosi facendo i fedeli potranno chiedere aiuto supporto e confidarsi con il chatbot che è capace perfettamente a rispondere. Parola di GitaGPT!



 

10 visualizzazioni0 commenti

Comentários


bottom of page