L’approccio normativo europeo in merito alla gestione dei rischi potenziali derivanti dai sistemi di software intelligenti
Era il 1950 quando Alan Turing pubblicò un articolo dal titolo Computing Machinery and Intelligence, in cui sostenne che in futuro i computer sarebbero stati in grado di pensare come esseri umani. Secondo la concezione originaria dello scienziato britannico, una macchina è da ritenersi intelligente laddove non si abbia la capacità di distinguere, attraverso una comunicazione scritta, se il proprio interlocutore sia una macchina o una persona.[1] Tali considerazioni hanno gettato le fondamenta della rivoluzione informatica degli ultimi decenni e sono state alla base di perspicaci e lungimiranti previsioni a proposito delle più evolute forme di intelligenza artificiale contemporanee.
Il Parlamento Europeo ha definito l’intelligenza artificiale (IA) come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”.[2] Sistemi di intelligenza artificiale sono di fatto in grado di mettersi in relazione con ciò che viene percepito, risolvere problemi, lavorare in autonomia e, da ultimo, adattare il proprio comportamento analizzando gli effetti delle azioni precedenti. Attualmente, l’intelligenza artificiale costituisce parte integrante della nostra quotidianità: assistenti vocali, motori di ricerca, sistemi di riconoscimento vocale e facciale, auto a guida autonoma, droni e applicazioni dell’Internet of Things (IoT) rappresentano infatti alcune delle tecnologie con le quali l’uomo ha acquisito una familiarità via via maggiore. Ciò che alimenta i motori di tali macchine intelligenti sono le informazioni, enormi flussi di dati generati in seguito ad attività talvolta svolte in maniera inconsapevole, come effettuare una ricerca sul web o condividere un post sui social network. L’intelligenza artificiale si basa infatti sul processo di analisi dei cosiddetti “big data”, dati raccolti in maniera sistematica attraverso la profilazione e successivamente analizzati tramite strumenti di statistica descrittiva e predittiva, con il fine di estrarre informazioni utilizzate, ad esempio, per riferire alle imprese le attuali condizioni di mercato e il comportamento dei clienti, in modo da rendere l’attività decisionale e pubblicitaria più rapida ed efficace rispetto alla concorrenza.[3] Se da un lato l’intelligenza artificiale trae nutrimento dalle enormi masse di dati, allo stesso tempo le informazioni ricevute alimentano tale infrastruttura[4]: di conseguenza, ciascuna di queste esperienze genera specifici problemi giuridici e solleva la questione della disposizione di una normativa specifica con riferimento alla governance dei dati. È infatti necessario assicurare un’adeguata cornice legale in grado di garantire la tutela e il rispetto dei diritti fondamentali tenendo in considerazione il ruolo che l’IA e la robotica avranno in un futuro immediato nell’erogazione di servizi, i quali saranno forniti tramite un’interazione diretta fra oggetti, senza la necessità di un intervento umano. Sorge allora la tematica della responsabilità civile per le condotte derivate da algoritmi, della profilazione come strumento di influenza e di libera formazione dell’opinione pubblica e della tutela del consumatore rispetto a pratiche commerciali e pubblicitarie poste in essere direttamente dal software senza l’azione dell’uomo.[5]
A tal proposito, il giurista e sociologo G.Teubner si riferisce agli algoritmi provenienti dal mondo digitale come “predatori pericolosi che si introducono nelle zone del diritto civile” e sottolinea l’emergere di nuovi interrogativi concernenti la possibilità di attribuire agli agenti software uno status giuridico autonomo e di trattarli dunque come soggetti responsabili.[6]
L’approccio normativo europeo in riferimento alla gestione dei rischi potenziali derivanti dall’intelligenza artificiale è fra i più evoluti: in particolare, la Commissione Europea è orientata alla promozione degli investimenti con il duplice obiettivo di favorire l’adozione dell’IA per preservare la leadership tecnologica dell’UE e contemporaneamente garantire il controllo dei dati da parte dell’utente, così come il rispetto dei diritti fondamentali dei cittadini ed elevati standard di sicurezza, qualità dei prodotti e conformità ai valori ed ai diritti che costituiscono il patrimonio costituzionale europeo.[7] L’attività europea sul tema trae origine nei lavori svolti negli ultimi decenni in merito alla trasformazione e digitalizzazione dell’industria: un primo approccio coordinato al fine di garantire un pieno sfruttamento delle potenzialità offerte dall’IA tenendo in considerazione le sfide che essa comporta si è concretizzato nell’adozione della strategia europea per l’IA, presentata nell’aprile 2018.[8]
In seguito, la stessa Commissione ha pubblicato il Piano coordinato sull’intelligenza artificiale, dando avvio ad un’Alleanza Europea per l’Intelligenza Artificiale e istituendo un gruppo di 52 esperti di alto livello sulla questione, con il compito di definire gli orientamenti etici e le politiche di investimento sull’IA in Europa.[9] Per quanto riguarda il trattamento dei dati personali, nel 2016 il Parlamento Europeo ha approvato il General Data Protection Regulation (GDPR), entrato in vigore nel maggio 2018, che ha introdotto il diritto ad “ottenere una spiegazione”, ovvero la possibilità per un cittadino dell’Unione Europea di mettere in discussione la logica di una decisione automatizzata e di contestarne il risultato.[10]
Alla luce delle precedenti considerazioni, si può dunque ritenere che sia necessaria una struttura di governance in materia di IA tale da garantire la massima partecipazione dei portatori di interessi, con il fine di garantire un adeguato sviluppo del quadro giuridico capace di far fronte ai rischi derivanti dai sistemi di intelligenza artificiale.
Note
[1] New Scientist, Macchine che pensano: la nuova era dell’intelligenza artificiale, Dedalo ed., 2018, pp. 11-12.
[2] https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata
[3] New Scientist, op.cit., pp.185-187.
[4] Ivi, pp.37, 42-43.
[5] https://dirittodiinternet.it/intelartificiale/
[6] Teubner,Ibridi ed attanti. Attori collettivi ed enti non umani nella società e nel diritto, 2015.
[7] Commissione Europea, Libro Bianco sull’Intelligenza Artificiale: un approccio europeo all’eccellenza e alla fiducia, 2020.
[8] https://ec.europa.eu/transparency/regdoc/rep/1/2018/IT/COM-2018-237-F1-IT-MAIN-PART-1.PDF
[9] M.Chiarelli, Intelligenza artificiale e regolazione: problematiche e prospettive, 2020, p.5.
[10] https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:32016R0679
Foto copertina: Immagine web