L’Intelligenza Artificiale può crescere, imparare e lavorare, ma senza un fine. Le macchine vengono addestrate sulla base di dati di riferimento, e l’algoritmo scova correlazioni estraendo regole secondo un meccanismo oggettivamente complesso, insufficientemente trasparente e, da ultimo, irresponsabile. Dialoghi con l’autore di Incoscienza Artificiale: come fanno le macchine a prevedere per noi Massimo Chiriatti
Il giurista Stefano Rodotà si domandava se tutto ciò che sia tecnicamente possibile fosse anche eticamente ammissibile, socialmente accettabile e giuridicamente lecito. L’apprendimento sulla base di ingenti quantità di dati ha permesso ai computer di essere addestrati in maniera automatica senza un’esplicita programmazione secondo regole precise: tali metodi vengono attualmente applicati ad una serie di abilità – inclusi il riconoscimento vocale e la traduzione linguistica – che fino a qualche tempo fa apparivano impossibili per le macchine, le quali stanno tuttavia raggiungendo con celerità livelli simili alle prestazioni umane. Pertanto, l’Intelligenza Artificiale (IA) ci pone di fronte a nuove sfide tanto complesse quanto urgenti, la più ardua delle quali concerne l’individuazione di una qualche modalità di governo di macchine che – paradossalmente – non sono intelligenti.
Ci si confronta infatti con una potenza immensa che necessita di una supervisione, poiché essa non è in grado di controllarsi in maniera autonoma.
Abbiamo incontrato Massimo Chiriatti, docente, Chief Technical & Innovation Officer di Lenovo e autore del volume “Incoscienza Artificiale. Come fanno le macchine a prevedere per noi”(Luiss University Press, 2021), nelle cui pagine si interroga sulla possibilità di definire una tale forza computazionale “intelligente”, sull’individuazione di una potenziale relazione con il “pensiero umano” e , infine, sull’eventualità che un modello artificiale possa essere “cosciente”.
La definizione del concetto di “intelligenza artificiale” è stata motivo di divisioni e perplessità all’interno della comunità scientifica. Per quale motivo ritiene più corretto riferirsi a tale concetto con il termine “incoscienza artificiale”? Quali sono le principali implicazioni che comporta l’utilizzo di tale espressione rispetto al più comune impiego del sostantivo “intelligenza”?
Concordo, quasi tutti gli scienziati pensano che il termine intelligenza non sia appropriato per le macchine, purtroppo ormai è di moda e serve a raccogliere fondi. Quindi qualsiasi alternativa non ha funzionato finora. Nel libro però evidenzio che le macchine autonome hanno troppi limiti, tra i quali: lavorano solo sui dati di addestramento, e ne hanno bisogno di tanti; poi non sono capaci di andare su domini diversi, di generalizzare nel mondo reale; non hanno un corpo per fare direttamente “esperienza”; infine, non comprendono il significato, quindi non hanno l’etica né coscienza.
Assistenti vocali come Alexa, Siri e Cortana sono oramai divenuti parte abituale della quotidianità di milioni di utenti. Tuttavia, sebbene appaiano rispondere tempestivamente ai nostri comandi e addirittura gestire alcune funzioni domotiche nelle nostre abitazioni, tali assistenti personali non vengono giudicati propriamente “intelligenti”. Quali sono le ragioni alla base di tale affermazione?
L’IA è una disciplina che ci aiuta a studiare le orme del passato per suggerirci i passi del futuro. Le macchine non hanno una ‘intelligenza’ nel senso umano del termine, non sono in grado di comprendere il contesto. Fatto ancora più importante: non comprendono la relazione causa-effetto.
Penso all’immagine di un essere umano e una macchina davanti allo specchio. Il primo si riconosce, ha un’emozione; la macchina, invece, pur avendo “imparato” milioni di immagini, non è capace di riconoscersi, perché non ha coscienza.
Non c’è intelligenza senza il coinvolgimento umano, per questo parlo di incoscienza.
A partire dagli anni 50, il test Imitation Game – meglio noto come Test di Turing – teorizzò il criterio della capacità di interazione linguistica per valutare la somiglianza fra una macchina e l’essere umano. Attualmente, le macchine vivono un periodo di “pre-umanesimo”, e la tecnologia odierna è in grado di decidere in maniera autonoma fornendoci solamente i risultati finali. A suo parere, è totalmente irrealistico presupporre una sovrapposizione futura fra intelligenza artificiale ed intelligenza umana? Vi sono caratteristiche specificatamente umane che ci preservano dal non diventare artificiali?
Gli esseri umani creano, informano e modellano i comportamenti delle macchine, ma anche l’IA può alterare il comportamento umano e l’ambiente. Abbiamo dunque due strumenti potentissimi: uno biologico e uno “artificiale”, un’altra espressione del rapporto tra natura e cultura. Non è opportuno contrapporre i due strumenti, anzi, dobbiamo metterli al nostro servizio. Così come è utile impiegare sia il Sistema 1 (intuizione) sia il Sistema 2 (ragionamento) per ottenere il meglio dalle nostre decisioni, così è necessario impiegare anche quello che nel libro chiamo Iasima, ma non acriticamente. Spetta a noi fare una sana obiezione di incoscienza artificiale.
A causa dell’imprevedibilità dell’Intelligenza Artificiale e della sua incapacità di comprendere ciò che ha appreso, viene spesso impiegato il termine “scatola nera” per riferirsi alla mancanza di spiegazioni in relazione al percorso effettuato per il raggiungimento di una determinata conclusione. Quali sono le principali conseguenze in termini di trasparenza del funzionamento dell’algoritmo? E quale ruolo potrebbe avere la figura dell’etologo digitale nella comprensione delle proprietà delle entità non biologiche che sviluppano competenze artificiali?
Comprendere le proprietà delle entità non biologiche che sviluppano competenze artificiali è una sfida chiave nello studio del comportamento dell’IA, che talvolta è imprevedibile, poiché comprendere quello che ha appreso, e come lo ha appreso, è al di fuori della nostra portata. Pertanto, si potrebbe avviare un nuovo filone di ricerca con una nuova figura, l’etologo digitale, che studi scientificamente il comportamento, lo sviluppo e le capacità esibiti dalla macchina. L’etologo digitale dovrebbe tenere in considerazione che le macchine presentano comportamenti fondamentalmente diversi dall’essere umano, soprattutto in termini di spiegabilità e trasparenza. Abbiamo bisogno di un’etologia nuova per studiare il comportamento delle IA, e di una nuova filosofia per approfondire la nostra e la loro evoluzione.
In seguito all’impiego dell’IA in sistemi critici come la sanità e la giustizia, che grado di importanza assumono l’equità dell’intero processo decisionale e l’imparzialità degli algoritmi? Quali potenziali criticità si potrebbero riscontrare in caso di decisioni errate prese dall’algoritmo in tali contesti?
Non ha senso affrontare il tema dell’innovazione tecnologica senza metterlo in relazione all’essere umano, agli impatti che tale innovazione può produrre sulle persone, sulle aziende, sulle economie, sulle società… anche quando si parla di intelligenza artificiale. L’IA è inevitabile, e se tutte le sue implicazioni ci lasciano paralizzati nell’incertezza diventeremo sempre più passivi, aspettiamo solo di vedere cosa accade per –poi- decidere. Di certo non possiamo conoscere tutte le risposte, ma ogni tecnologia che ci spinge alla passività è dannosa. Il passato è immutabile, ma il futuro non è ineluttabile, dipende solo dalle scelte che facciamo. La parte differente rispetto alle scelte sociali del passato è che bisogna scegliere bene e velocemente.
Le piattaforme digitali vengono paragonate alle monarchie assolute, sottolineando come lo sfruttamento del cosiddetto “oro digitale” rappresentato dai dati degli utenti contribuisca a creare uno State model spersonalizzato e dematerializzato piuttosto che un business model. Quali sono le ragioni alla base di tale comparazione? E quale ruolo potrebbero avere le stable coins in tale contesto?
A breve le piattaforme cercheranno di diventare anche banche centrali, emettendo direttamente le loro forme di denaro a milioni di persone. Già si osservano le prime sperimentazioni, chiamate stable coin, legate al dollaro o all’euro. Le stable coin sono monete digitali ancorate con un rapporto prossimo a 1:1 al prezzo delle monete fiat (euro, dollaro ecc.). Sono nate per limitare i problemi connessi all’elevata volatilità delle criptovalute come il bitcoin. A differenza delle criptovalute, le stable coin sono molto più in linea con i concetti di moneta elettronica o cash digitale, e possono essere sottoposte a regolamentazione. Quando, emettendo valute globali e scalabili, si sganceranno definitivamente dai classici sistemi monetari, le piattaforme diventeranno Stati a tutti gli effetti. Del resto, per finanziare e difendere l’espansione globale occorrono risorse ingenti, ma aumentando la portata di questi strumenti si rischia di produrre diseguaglianze un tempo inimmaginabili.
Quali sono i rischi dell’“algocrazia” per le dinamiche politiche, sociali, economiche e – più in generale – per i processi democratici all’interno degli Stati?
Il problema non sono mai il denaro e la tecnologia, perché questi rimangono semplici strumenti: dobbiamo essere consapevoli di chi li controlla e di quali sono i suoi fini. L’economia liberale si basa sulle scelte autonome delle parti, e la democrazia si basa sulle libere scelte dei cittadini, ma in un nuovo Stato digitale, che agisce da accentratore globale di previsioni e scelte, le istituzioni politiche classiche rischiano di diventare obsolete.
Potrebbe interessarti:
Foto copertina: Copertina libro Incoscienza Artificiale