Il ruolo determinate dell’AI nella definizione di nuovi equilibri economici e politici rende necessaria una disciplina internazionale omogenea, con particolare riferimento alle norme che ne limitino l’impiego e ne individuino le responsabilità in un’ottica di tutela dei diritti e delle libertà individuali.
L’intelligenza artificiale è ormai al centro dei progressi economici di molti Paesi e condiziona fortemente le trasformazioni che avvengono nel mondo del lavoro, dell’IT e della vita quotidiana. Una rivoluzione tecnologica che inevitabilmente ha delle importanti ripercussioni sul piano sociale e normativo, creando lacune giuridiche e scenari inediti che necessitano di una compiuta disciplina, così da poter diradare le molte perplessità ancora legate a questo settore.
Sebbene l’AI rappresenti una delle più importanti opportunità dei nostri tempi, infatti, l’adozione dei sistemi intelligenti da parte delle aziende è ancora inferiore rispetto alle aspettative e ciò è dovuto principalmente a resistenze di tipo culturale; i dati che emergono da un nuovo report di Ibm, “From roadblock to scale: the global sprint towards AI”, sembrano però preannunciare una crescita esponenziale dell’adozione dell’intelligenza artificiale nei prossimi 18 o 24 mesi, così da raggiungere circa l’80-90% delle aziende [1].
Tra le principali problematiche che emergono dallo sviluppo di forme sempre più avanzate di intelligenza artificiale c’è la questione della responsabilità per eventuali danni provocati dai sistemi di AI, con particolare riferimento a quelli i cui algoritmi prevedano capacità decisionale che derivi dall’autoapprendimento e dall’esperienza[2].
Se il sistema intelligente risponde a un dato interrogativo basandosi su parametri che potrebbero essere incompleti o parziali, si accetta l’eventualità che il responso fornito sia oggettivamente errato; a tal proposito possono citarsi ad esempio i sistemi predittivi ormai diffusi nel settore bancario per la gestione del rischio di credito ai clienti.
E ancora, se il sistema intelligente debba assumere una decisione che abbia come conseguenza la produzione di un danno, come nel classico esempio dell’automobile self-driving che in una situazione di emergenza debba scegliere tra causare una lesione al passeggero o al pedone che attraversa la strada nonostante il semaforo rosso, si renderà parimenti necessario stabilire su chi ricade la responsabilità per le condotte assunte autonomamente dalla macchina.
Sul rapporto tra AI e diritto penale distinguiamo due fondamentali orientamenti: la prima teoria nega l’applicazione del diritto penale alle macchine in quanto indissolubilmente legato all’agire umano; il secondo orientamento, invece, in virtù dei grandi progressi tecnologici registrati, ha iniziato a mettere in discussione la linearità del rapporto tra macchine e diritto penale[3].
La prima corrente sostiene che il diritto penale è quel settore dell’ordinamento che non può prescindere dalla componente umana in quanto solo le persone possono davvero trasgredire ed essere ragionevolmente punite per le loro scelte colpevoli. In base a tale orientamento, il dilemma è dunque risolto alla luce del dogma (rivisitato) machina delinquere (et puniri) non potes, che nega la configurabilità di una responsabilità penale a macchine, robot e soggetti artificiali considerando questi utlimi come semplici strumenti nelle mani dell’autore e attore umano.
La seconda teoria, facendo leva sull’apprendimento delle macchine e sulla riduzione del grado di controllo che l’uomo può avere su di esse, riconosce invece la configurabilità di entità il cui comportamento diventa ex ante non completamente prevedibile dall’uomo e, quindi, “autonomo”. Una visione oggetto di critiche da parte dei sostenitori della prima corrente, i quali rimandano soprattutto a due principi fondamentali del diritto penale quali il principio di colpevolezza e la funzione della pena. Unico tratto comune alle due teorie è ancora una volta la necessità di una legislazione ad hoc che possa regolamentare un settore tanto attuale quanto complesso e in continua evoluzione.
In ambito civilistico distinguiamo due forme di responsabilità: la responsabilità contrattuale, che si basa sull‘esistenza di un vincolo contrattuale tra due soggetti e si configura qualora uno dei due sia inadempiente rispetto alle obbligazioni negoziate, e la responsabilità extra-contrattuale, la quale non presuppone l’esistenza di un contratto ma si fonda sul principio generale di cui agli artt. 2043 e seguenti del codice civile secondo cui chiunque cagioni ad altri un danno ingiusto, in maniera dolosa o colposa, è tenuto al risarcimento del danno.
Nell’utilizzo di sistemi intelligenti sono configurabili entrambe le forme di responsabilità, le quali possono addirittura coesistere in relazione allo stesso evento dannoso, ma non esiste una normativa nazionale o europea che disciplini compiutamente il ricorso a sistemi di intelligenza artificiale, determinando le conseguenze che derivano sul piano giuridico dalla condotte degli automi.[4].
A livello europeo è però rintracciabile un quadro legislativo, costituito essenzialmente da tre direttive europee, che può applicarsi ai sistemi di intelligenza artificiale considerati come prodotti; i tre testi in esame sono la Direttiva 2006/42/CE (direttiva “Macchine”) [5], che disciplina gli standard di salute e sicurezza da seguire durante le fasi di progettazione e realizzazione delle macchine e necessari per la loro immissione in commercio, la Direttiva 01/95/CE [6]che regola la sicurezza generale dei prodotti e impone requisiti generali per ogni articolo immesso sul mercato e destinato al consumo, inclusi i macchinari, e infine la Direttiva 99/44/CE, [7] sulla vendita dei beni di consumo, la quale disciplina i diritti e le garanzie a favore dei consumatori in merito ai prodotti destinati alla vendita al consumo.
E’ pacifico, dunque, che qualora si sia in presenza di difetti di produzione il sistema intelligente potrà essere considerato alla stregua di un bene di consumo, con le stesse tutele e garanzie commerciali previste per il fruitore in caso di vizi di conformità.
Anche per i danni, siano essi cagionati all’utente o a terzi, che derivino da un difetto di produzione, sarà applicata la normativa europea che regola la responsabilità da prodotto difettoso in base al principio della responsabilità oggettiva del produttore.
Tale normativa è tuttavia applicabile sono nei casi in cui il sistema intelligente possa essere considerato come un oggetto, mentre non potrà estendersi ai casi in cui il sistema agisca invece come un agente: se l’AI è programmata per apprendere e determinare in autonomia la propria condotta sulla base dell’esperienza e della propria interazione con l’ambiente, anche andando oltre un ipotetico controllo umano, chi lo progetta e realizza potrebbe infatti non riuscire a prevederne ogni possibile reazione rispetto all’ambiente che lo circonda.
Se è vero che in un simile contesto potrebbero esserci più soggetti chiamati a rispondere di eventuali danni cagionati dal sistema intelligente (es. l’ideatore dell’algoritmo, il programmatore, il produttore, il proprietario, l’utente) è anche vero che l’attuale quadro normativo in tema di responsabilità non consente di fornire soluzioni univoche, data l’eventuale capacità della macchina di autodeterminarsi e porre in essere condotte imprevedibili[8].
Nel tentativo di sopperire a tali incertezze, il Parlamento Europeo ha approvato nel 2017 una Proposta di Risoluzione che prevede “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”[9], invitando dunque la Commissione a lavorare su una proposta di direttiva che possa delineare le regole civilistiche in ambito robotico applicabili uniformemente in tutti gli Stati Membri.
Il Parlamento suggerisce in particolare due diversi modelli di attribuzione di responsabilità: una responsabilità oggettiva del produttore dell’AI o di parte della macchina per i danni eventualmente cagionati, a prescindere dalla sussistenza di dolo o colpa, e un approccio che si basi sulla gestione del rischio e che sia utile ad individuare il soggetto da ritenersi responsabile del danno in quanto “casualmente più vicino al prodotto” e quindi più idoneo alla gestione del rischio in base alle circostanze del caso.
Il Parlamento europeo evidenzia però che in aggiunta a tale regime di responsabilità è necessario considerare altri fattori quali l’approccio al problema in un’ottica di gestione del rischio, l’introduzione di un’assicurazione obbligatoria per i produttori e proprietari di robot self-learning, l’annessa costituzione di un fondo per i danni causati da robot qualora non vi sia copertura assicurativa e l’immatricolazione di ogni macchina che permetta di associarla al proprio fondo[10].
Volgendo lo sguardo oltreoceano, è interessante notare come dagli Stati Uniti giunga il consiglio all’Ue di non regolamentare in modo troppo stringente l’intelligenza artificiale, in particolare prima che siano state effettuate adeguate valutazioni dei rischi nonché analisi dei costi-benefici[11]. L’Office of Science and Technology Policy (OSTP) della Casa Bianca afferma infatti: “L’Europa e i nostri alleati dovrebbero evitare i pesanti modelli di normazione che possono uccidere l’innovazione (…). Si dovrebbe prestare particolare attenzione alla creazione di quadri flessibili anziché imporre una regolamentazione valida per tutti”[12].
L’amministrazione Trump ha recentemente emanato una Guidance for Regulation of Artificial Intelligence Applications[13]con dieci principi a cui tutte le agenzie federali che si trovino a regolamentare l’AI nel settore privato dovranno attenersi, con lo scopo di rimuovere gli ostacoli all’innovazione e alla crescita dell’AI in tale settore.
L’art. 6 di tale decalogo stabilisce, in tema di flessibilità, che “i regolamenti dovrebbero adattarsi a rapidi cambiamenti e aggiornamenti alle applicazioni AI”, ed è questo il principio che gli Usa auspicano sia adottato anche dall’Ue.
Il timore dell’amministrazione Trump è che l’Europa, imponendo una normazione unica e troppo gravosa, finisca per limitare lo sviluppo e la commercializzazione delle tecnologie AI a causa delle preoccupazioni etiche che tali tecnologie suscitano in tema di sicurezza, privacy, controllo governativo e futuro del lavoro. “Il modo migliore per contrastare gli usi autoritari dell’IA è assicurarsi che l’America e i nostri partner internazionali rimangano il fulcro globale dell’innovazione”, fanno sapere dalla Casa Bianca.[14]
Si mira dunque ad evitare l’introduzione di vincoli eccessivi che possano penalizzare la competitività occidentale rispetto a Paesi terzi che scelgano di non sottostare agli stessi vincoli auto-imposti in tema di utilizzo dell’intelligenza artificiale.
Nell’aprile 2019 la Commissione Europea ha pubblicato l’ Ethics Guidelines for Trustworthy Artificial Intelligence (AI) [15] con le linee guida etiche per lo sviluppo di un’AI che possa ritenersi affidabile. Ciò alimenta i timori americani su un’eccessiva regolamentazione della materia da parte dell’Europa, anche in vista delle posizioni recentemente espresse dai vari vertici: Ursula von der Leyen, presidente della Commissione europea, si è dichiarata favorevole a una legislazione sull’intelligenza artificiale [16] simile al GDPR del 2018 sulla protezione dei dati personali, il quale ha inevitabilmente condizionato la prassi operativa di molte aziende tecnologiche d’oltreoceano. Margrethe Vestager, Commissario europeo per la concorrenza, lo scorso novembre aveva affermato che in tema di innovazione tecnologica “grandi opportunità derivano da grandi rischi”, ma non ha fatto mistero delle sue forti perplessità sull’applicazione di alcune tecnologie quali le AI di riconoscimento facciale.[17]
La posizione assunta dagli Usa nei confronti dell’Europa va letta anche alla luce della recente approvazione da parte della Casa Bianca di nuove regole che limitino l’esportazione di tecnologie americane di AI, così da ostacolare i governi rivali nel trarre vantaggio dalle tecnologie statunitensi e mantenere una posizione di supremazia.[18]
In base a tali regole, le società che vorranno vendere AI fuori dagli USA avranno infatti bisogno di un nulla osta governativo.
E’ indubbio che l’Intelligenza artificiale svolgerà nei prossimi anni un ruolo cruciale nel perseguimento degli interessi dei singoli Paesi e nella definizione di nuovi equilibri sul piano tecnologico, economico e politico, ragion per cui è di fondamentale importanza che si giunga ad una disciplina quanto più omogenea possibile e a carattere necessariamente internazionale, con particolare riferimento alle norme che limitino l’impiego di AI in un’ottica di tutela dei diritti e delle libertà individuali.
Note
[1]cfr. IBM, “From Roadblock to Scale: The Global Sprint Towards AI”, http://filecache.mediaroom.com/mr5mr_ibmnews/183710/Roadblock-to-Scale-exec-summary.pdf
[2] cfr. AIForBusiness.it, “Intelligenza artificiale e problematiche legali: chi risponde delle condotte autonome dei sistemi intelligenti?”, 5 marzo 2019 – https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-e-problematiche-legali-chi-risponde-delle-condotte-autonome-dei-sistemi-intelligenti/
[3] cfr. AIForBusiness.it, “Responsabilità penale dell’intelligenza artificiale, due diversi orientamenti”, 17 marzo 2020 – https://www.ai4business.it/intelligenza-artificiale/responsabilita-penale-dellintelligenza-artificiale-due-diversi-orientamenti/
[4] cfr. AIForBusiness.it, “Intelligenza artificiale e problematiche legali: chi risponde delle condotte autonome dei sistemi intelligenti?”, 5 marzo 2019 – https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-e-problematiche-legali-chi-risponde-delle-condotte-autonome-dei-sistemi-intelligenti/
[5]cfr. Gazzetta ufficiale dell’Unione europea, DIRETTIVA 2006/42/CE DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 17 maggio 2006 relativa alle macchine e che modifica la direttiva 95/16/CEhttp://www.trovanorme.salute.gov.it/norme/renderNormsanPdf?anno=0&codLeg=47137&parte=1%20&serie=
[6]cfr. eur-lex.europa.eu, DIRETTIVA 2001/95/CE DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 3 dicembre 2001 relativa alla sicurezza generale dei prodotti https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32001L0095&from=EN
[7]cfr. eur-lex.europa.eu, Direttiva 1999/44/CE del Parlamento europeo e del Consiglio, del 25 maggio 1999, su taluni aspetti della vendita e delle garanzie dei beni di consumo https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:31999L0044&from=LV
[8] cfr. AIForBusiness.it, “Intelligenza artificiale e problematiche legali: chi risponde delle condotte autonome dei sistemi intelligenti?”, 5 marzo 2019 – https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-e-problematiche-legali-chi-risponde-delle-condotte-autonome-dei-sistemi-intelligenti/
[9] cfr. eur-lex.europa.eu, Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) – https://eur-lex.europa.eu/legal-content/IT/ALL/?uri=CELEX%3A52017IP0051
[10] cfr. AIForBusiness.it, “Intelligenza artificiale e problematiche legali: chi risponde delle condotte autonome dei sistemi intelligenti?”, 5 marzo 2019 – https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-e-problematiche-legali-chi-risponde-delle-condotte-autonome-dei-sistemi-intelligenti/
[11] cfr. Euractiv.com, Avoid heavy AI regulation, White House tells EU, 7 gennaio 2020 https://www.euractiv.com/section/digital/news/avoid-heavy-ai-regulation-white-house-tells-eu/
[12] cfr. Privacy.it, Gli USA pressano la UE: no a normazione rigida su intelligenza artificiale https://www.privacy.it/2020/01/08/usa-normazione-intelligenza-artificiale/
[13] cfr. whitehouse.gov, Guidance for Regulation of Artificial Intelligence Applications https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf
[14]cfr. Privacy.it, Gli USA pressano la UE: no a normazione rigida su intelligenza artificiale https://www.privacy.it/2020/01/08/usa-normazione-intelligenza-artificiale/
[15]cfr. ec.europa.eu, Ethics guidelines for trustworthy AI, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
[16]cfr. ilsole24ore.com, Ue: von der Leyen, vogliamo intelligenza artificiale “responsabile” e sotto controllo, 19 febbraio 2020, https://www.ilsole24ore.com/radiocor/nRC_19.02.2020_13.12_35534367
[17]cfr. wired.it, Cosa c’è nel nuovo piano per il digitale dell’Unione europea, 19 febbraio 2020, https://www.wired.it/attualita/tech/2020/02/19/piano-digitale-unione-europea/ 35534367
[18]cfr. Privacy.it, Gli USA pressano la UE: no a normazione rigida su intelligenza artificiale https://www.privacy.it/2020/01/08/usa-normazione-intelligenza-artificiale/
Foto copertina:Autore: PhonlamaiPhoto | Ringraziamenti: Getty Images/iStockphoto Informazioni provenienti da IPTC Photo Metadata.
[trx_button type=”square” style=”default” size=”large” icon=”icon-file-pdf” align=”center” link=”http://www.opiniojuris.it/wp-content/uploads/2020/06/Intelligenza-artificiale-e-diritto-profili-normativi-etici-e-politici-Mariarita-Cupersito.docx.pdf” popup=”no” top=”inherit” bottom=”inherit” left=”inherit” right=”inherit” animation=”bounceIn”]Scarica Pdf[/trx_button]