L’Intelligenza Artificiale, lo stato dell’arte della collaborazione internazionale


L’Intelligenza Artificiale (IA) è la rivoluzione tecnica che mette in rapporto l’uomo con un nuovo modo di calcolare e tradurre la realtà. Il cambiamento che ne deriva colpisce gli ambiti dell’esistenza umana nella sua globalità, ed inevitabilmente, le relazioni tra Stati.


A cura di Jacopo Belli

L’IA nell’età della tecnica

Riprendendo le parole del noto filosofo italiano Umberto Galimberti, viviamo nell’età della tecnica e “continuiamo a pensare che la tecnica sia uno strumento nelle mani dell’uomo, ma oggi la tecnica è mondo”1. Non c’è materia più controprovante di queste parole dell’Intelligenza Artificiale.
Nel diritto statunitense l’intelligenza artificiale è definita come “un sistema meccanizzato che può, dati determinati obiettivi conferitegli dall’uomo, fornire previsioni, raccomandazioni o decisioni che influenzano l’ambiente reale e virtuale”2.

Tale sistema meccanizzato è detto anche generativo, in quanto crea, e non solo riproduce, linguaggi utili al raggiungimento degli obiettivi dettati dagli input.

Facciamo però un passo indietro. Osservando come nel corso della storia la narrazione fantascientifica sino ad ora compiuta dall’uomo (può sembrare una locuzione ovvia, ma presto non lo sarà) relativamente all’intelligenza artificiale sia basata su due principali caratteristiche: l’autocoscienza di sé e la possibilità di potersi muovere all’interno del mondo fisico. Nei famosi scenari costruiti da opere come quelle di Isaac Asimov (“Io, Robot” su tutti, nel caso specifico) e altri riscontriamo che questi due fattori sono necessari e condizionanti relativamente alla possibilità di poter raggiungere la volontà di dominio ed imperio, derivante dall’autocoscienza di sé, e la possibilità di poterlo fare tramite l’uso della forza, principale metodo umano per il raggiungimento di obiettivi propri e non altrui.

Già in questa prima analisi possiamo osservare che nello stesso modo in cui l’intelligenza artificiale si è venuta a formare ha superato i modus operandi delle comunità umane.

L’azione dell’intelligenza artificiale generativa si compie in diversi modi: nella capacità di creazione di linguaggi, siano questi legati a veri e propri testi scritti di vario genere e tipo; siano questi disegni, di varia elaborazione possibile; siano questi linguaggi di codici utili per comunicare con altri dispositivi e macchine, nella creazione di nuove funzionalità; siano queste composizioni musicali di vario genere. Ci sono però funzionalità emergenti dell’intelligenza artificiale, legate per esempio al popolarissimo deep fake, ossia l’utilizzo di immagini, video e audio che, partendo da contenuti reali, vengono rielaborate e adattate ad un contesto diverso da quello originario. Una tecnologia del genere, osservata solo con questo grado di superficialità può sembrare alquanto innocua, ma come ogni sorta di tecnologia, l’utilizzo ne detta la natura.

Osserviamo per esempio come l’IA venga utilizzato in ambito nell’ambito della cybersecurity per compiere le azioni di Penetration Test, Access Management, Anomaly Detection, Incident Analysis/Response, Detect.

Senza entrare nello specifico, queste funzioni ricercano all’interno di un’infrastruttura digitale i punti deboli dei sistemi, mettendoli alla prova, facendo in modo da poterli ottimizzare e permettendo un’ottimizzazione costante di tali sistemi.

Osserviamo come queste intelligenze artificiali vengano anche utilizzate nell’analisi di numerosissimi dati, utili alle azioni di microtargeting di varia natura, dall’ambito politico a quello commerciale. Il microtargeting è una tecnica di marketing legata all’uso dei dati online per personalizzare i contenuti visibili dagli utenti, basandosi su criteri di identificazione personali, utilizzando, descrivendolo nella maniera più spietata possibile, le personali vulnerabilità degli individui per incanalare il comportamento umano in una direzione rispetto ad un’altra, sia questo nella costruzione di un’opinione o nell’azione di voto.

Le tecniche di microtargeting sono per esempio state utilizzate nel 2016 da Cambridge Analytica per l’elezione di Donald Trump alle elezioni presidenziali statunitensi. In quel caso, come nel caso della Brexit, tali tecniche sono state utilizzate in maniera congiunta con l’intelligenza artificiale e i cosiddetti bots nella riproduzione, creazione e diffusione della vasta scala di fake news, influenzando le azioni di voto degli individui, basate sulle informazioni percepite.

Osserviamo quindi come l’intelligenza artificiale abbia raggiunto una massima capacità nel proxy della civiltà umana, la padronanza del linguaggio nelle sue forme e dimensioni.

In principio era il Verbo

Tramite il linguaggio si costruiscono le idee, e tramite le idee ricostruiamo il linguaggio. In tale interscambio l’uomo nel corso della storia ha creato la società nella quale viviamo.

Gli Stati, che sono costrutti sociali, sono basati su un linguaggio inteso come comune, il diritto. Il linguaggio del diritto, a livello internazionale e nelle sue diverse nature, è basato a sua volta da linguaggi comuni, ossia i valori. I valori sono coefficienti sociali a loro volta costruiti da narrazioni soggettive comuni ai quali si sceglie di credere ed obbedire, ai fini della convivenza. Le religioni sono produzioni del linguaggio umano, nella creazione di coefficienti sociali utili alle relazioni intersoggettive. La mitologia e le narrazioni sono frutto del linguaggio, che traduce e crea sin da giovanissimi, un trapasso di quei valori che, come villaggio umano riteniamo essere rilevanti per la costruzione di un individuo. Il linguaggio è lo strumento che l’uomo utilizza per viaggiare nel sistema operativo “mondo”.

La maggiore tecnica umana è quella di riuscire a comunicare con gli altri per potersi interfacciare con l’ambiente circostante nel quale vive. Nel momento in cui altri soggetti, non rientranti nella categoria di natura organica con la quale siamo abituati ad interagire da più di due milioni di anni, divengono abili e padroneggiano il nostro proxy in rapporto al mondo, si presenta la possibilità di un mondo analizzato e creato con un logos alieno.

Lo storico Yuval Noah Harari al Frontiers Forum, il 29 aprile 2023, in Montreux, (Svizzera) pone un quesito rilevante durante la sua conferenza: “cosa significherebbe per noi umani, vivere in un mondo dove la maggior parte delle immagini, delle leggi, delle politiche, delle storie e degli strumenti, sono costruiti da un’intelligenza non umana. Un (intelligenza) aliena in grado sfruttare con capacità che supera l’umano, le vulnerabilità, le inclinazioni ed i vizi dell’uomo, raggiungendo con questo un rapporto di intimità profondo con l’essere umano.”3Il potere che ha l’IA quindi è legato principalmente alla capacità intrinseca che il linguaggio ha di costruire le idee. Questo risulta sicuramente rivoluzionario dal momento che le idee prodotte non derivano più direttamente dall’umano come ente fornitore.

Allo stesso tempo però, l’intelligenza artificiale utilizzata come strumento per il raggiungimento di uno scopo, permette sicuramente un’ottimizzazione dell’efficienza del risultato. Ciò ad intendere che nella costruzione di una storia, un’immagine o una musica, la capacità tecnica della macchina, congiunta con la capacità tecnica dell’individuo, portano a risultati magistrali. La dialettica che infatti si viene a creare risulta anche essere quella di una democratizzazione dell’esito ottimo, secondo cui anche privi di una conoscenza tale da permetterci la perfetta creazione di un prodotto, siamo in grado di comporlo.

La visione scettica dello storico israeliano, però, è sicuramente fondata e pone quindi la necessità di un intervento pubblico. Risulta quasi ovvio, ma necessario, affermare che il tempo di rivoluzione tecnologica supera di gran lunga il tempo di una azione politica utile, in scala con il problema.

Leggi anche:

L’Intelligenza Artificiale nella politica estera

Le possibilità di dual use delle tecnologie sono sempre latenti in ogni invenzione tecnologica. Come lo storico Arnold Toynbee ne “Il mondo e l’Occidente” descrive, la tecnica e la tecnologia sono sempre state, nella dialettica tra le civiltà, il fattore di dialogo, e di supremazia, che le poneva in contatto. Ciò non fa eccezione per l’AI, ma l’infrastruttura digitale globale della quale ci serviamo, non ci permette di poter affrontare in maniera soggettiva o statale un problema che è globale, in linea con l’infrastruttura cui si riferisce.

Nel maggio 2023 i Paesi del G7 hanno accolto con favore i principi guida legati all’“Hiroshima AI process”, ossia un forum volto ad armonizzare la legislazione e la governance globale sul tema dell’Intelligenza artificiale. È stato stabilito un quadro strategico derivabile da quattro pilastri fondamentali:

  • L’analisi dei rischi, delle sfide e delle opportunità fornite dall’IA generativa

  • I principi guida di livello internazionale del processo di Hiroshima per tutti gli attori dell’ecosistema dell’IA

  • Il codice di condotta internazionale per il successo del processo di Hiroshima, per le organizzazioni che sviluppano i sistemi avanzati di IA

  • La cooperazione basata su progetti a sostegno dello sviluppo di strumenti di IA responsabili e migliorie pratiche.

Sulla base di questa condotta si misurerà la presidenza italiana del G7 del 2024. Il 30 ottobre 2023 a Roma c’è stato un incontro trilaterale tra i ministri di economia, industria e finanze di Italia, Francia e Germania (Adolfo Urso, Bruno Le Maire e Robert Habeck). L’obiettivo era quello di sottolineare la cooperazione industriale tra i settori della tecnologia europea, con una rilevante analisi sui temi dell’Intelligenza Artificiale e la necessità di sforzi verso la transizione digitale e verde.4

I due giorni successivi nel Regno Unito si è tenuta a Bletchley Park, nel Buckinghamshire, l’Artificial Intelligence Safety Symmit (AISS)5, la prima conferenza internazionale relativa all’intelligenza artificiale. Gli incontri dell’AISS si sono concentrati su alcuni obiettivi: comprendere e limitare i rischi dell’intelligenza artificiale avanzata “di frontiera”; promuovere la cooperazione internazionale sulla sicurezza; identificare misure concrete; favorire la ricerca collaborativa e garantire uno sviluppo sicuro per applicazioni positive globali.

In sintesi, l’AISS ha facilitato un dialogo tra stakeholder senza stravolgere il quadro normativo, promuovendo la comprensione dei rischi e la cooperazione per uno sviluppo sicuro dell’IA nell’interazione tra il settore pubblico ed il privato. Alla fine del Summit si è formalizzata il 2 novembre 2023 la Dichiarazione di Bletchley, una dichiarazione volta a creare una roadmap per il prossimo summit del 2024, relativamente all’azione di collaborazione, ed ai potenziali rischi derivanti e derivabili da un misuse dell’IA.

Nell’ambito dell’Unione Europea, come parte della sua strategia digitale, abbiamo invece il primo quadro normativo, avviato già dall’aprile 2021. Il progetto si basa sulla gestione dei rischi, soprattutto in relazione alla protezione dei diritti fondamentali.
La proposta normativa individua un assetto basato su un Titolo I, sarà legato agli scopi ed alla definizione della normativa; al Titolo II l’individuazione delle pratiche pericolose e quindi a cui si attribuisce divieto a titolo negativo; al Titolo III sono previste regole per la sistematizzazione di situazioni ad alto rischio, come diritti fondamentali della persona umana o rischi alla salute ed alla sicurezza; il Titolo IV si occuperà degli obblighi di trasparenza relativi alle imprese che detengono i sistemi di intelligenza artificiale; al Titolo V si presenteranno misure a supporto dell’innovazione; ai titoli VI, VII e VIII misure legate alla governance; al Titolo IX i codici di condotta, sulla linea di quelli di Hiroshima e ai titoli X, XI e XII le disposizioni finali.6

Nell’ambito di tale legislazione inoltre vengono identificati due categorie di attori: i “fornitori”, ossia coloro che distribuiscono i servizi forniti dall’IA e gli “utenti”, i quali ne usufruiscono.
Nello specifico delle legislazioni nazionali Stati Uniti, così come Cina, Canada, Giappone ed altri si sono portati avanti ed hanno già proprie linee politiche.

Nell’ambito delle Nazioni Unite il Segretario Generale Antonio Guterres, a luglio 2023 ha chiesto la creazione di un organismo di regolamentazione globale sull’Intelligenza Artificiale.7

Se c’è una certezza alla fine di questa analisi è che l’intelligenza artificiale apre una porta che non sapevamo di possedere, e ci riporta in una condizione in cui il ritmo della tecnica supera il ritmo delle competenze umane. Resta quindi solo una domanda da porsi.
La risposta alla domanda fondamentale sulla vita, l’universo e tutto quanto, è sempre 42?


Note

1 Arrigoni, N. (2022, November 9). Umberto Galimberti: «Nell’età della tecnica l’uomo non ha potere». La Provincia. Cremona.
2 Traduzione autonoma dal “15 U.S. Code Chapter 119 – NATIONAL ARTIFICIAL INTELLIGENCE INITIATIVE.”
3 Yuval Noah Harari. (2023, May 14). AI and the future of humanity | Yuval Noah Harari at the Frontiers Forum.
4 Italy, Germany, and France agree on strengthening their cooperation on Artificial Intelligence. https://www.mimit.gov.it/en/media-tools/news/italy-germany-and-france-agree-on-strengthening-their-cooperation-on-artificial-intelligence
5 www.aisafetysummit.gov.uk.
6 Commissione Europea, Un approccio europeo all’intelligenza artificiale. (2023, November 24). Plasmare Il Futuro Digitale Dell’Europa.
7 https://news.un.org/en/story/2023/07/1138827


Foto copertina:Intelligenza Artificiale