L’Intelligenza Artificiale (IA) sta trasformando rapidamente ogni aspetto della nostra società, dal lavoro alla sicurezza. Allo stesso tempo, il suo impatto sui diritti umani solleva questioni cruciali: da un lato, infatti, l’IA offre strumenti per migliorare la protezione dei diritti fondamentali; dall’altro, il suo utilizzo non regolamentato può portare a discriminazione, violazione della privacy e mancanza di trasparenza. Questo articolo si propone di esplorare le principali sfide e opportunità legate all’Intelligenza Artificiale in relazione ai diritti umani.
A cura di Luigi Parisi
Non esiste una definizione univoca di intelligenza artificiale, ma tutti coloro che se ne sono occupati sono concordi nell’assegnare a questo nuovo strumento una serie di caratteristiche che possono contribuire a darne una nozione: si tratta di sistemi informatici in grado di simulare una generica forma di intelligenza, grazie alla capacità di elaborare dati, apprendere, pianificare e, in alcuni casi, creare.
Questa nuova tecnologia ha subìto un notevole sviluppo negli ultimi anni, anche a seguito della crisi pandemica del biennio 2020-2021. Qualche studioso è arrivato anche a parlare di quarta rivoluzione industriale. Tale progresso ha avuto un impatto considerevole, creando nuove opportunità, ma anche sfide e minacce per la tutela dei diritti umani. Pertanto, la necessità di una regolamentazione dell’IA si è fatta sempre più impellente. A tale sfida ha risposto la comunità internazionale, sia a livello onusiano, sia a livello regionale, come nel caso dell’Unione Europea.
Le Sfide dell’IA per i diritti umani
Una delle caratteristiche più importanti dell’intelligenza artificiale, nel senso di grande rilievo per quanto ne riguarda gli effetti, è sicuramente il suo (prendendo in prestito un termine usato da Richard Baldwin per riferirsi alla globalizzazione)[1], essere disruptive. La dirompenza dell’IA indica la capacità della stessa di stravolgere il sistema, economico, politico, sociale, per come lo conosciamo oggi. Ad oggi, gli ambiti in cui si manifestano tali effetti sono già molteplici, dallo sviluppo di nuove armi alla privacy, dalla sicurezza al vuoto giuridico relativo alla responsabilità in caso di decisioni prese da sistemi informatici.
Infatti, la rapida evoluzione di tale tecnologia sta trasformando già la guerra: l’Intelligenza Artificiale e i sistemi autonomi si stanno diffondendo a macchia d’olio nei conflitti attuali, capaci di individuare e attaccare obiettivi con velocità e scala senza precedenti. Questo rischia di incrudire maggiormente i conflitti armati e aumentare il numero di casualties. Contemporaneamente, è possibile che le decisioni delle macchine rubino sempre più spazio a quelle umane, in quanto meno emotive, più calcolate ed efficienti. Paradossalmente, sebbene l’IA offra una visione più chiara del campo di battaglia, la guerra rischia di diventare più opaca per chi la combatte, lasciando sempre meno spazio alla riflessione.[2] Senza tuttavia scomodare scenari apocalittici come lo Skynet di Terminator, alcune sfide poste dall’IA riguardano anche la vita quotidiana di comuni esseri umani, quasi come se fossimo delle comparse nella serie Person of Interest: infatti essa viene sempre più utilizzata per il riconoscimento facciale e la sorveglianza predittiva, sollevando gravi preoccupazioni per la privacy. In alcuni Paesi, questi sistemi sono impiegati per monitorare cittadini, sospettati di crimini e dissidenti politici, compromettendo la libertà di espressione e il diritto alla riservatezza. Si tratta naturalmente di quei Paesi in cui non sono garantiti pienamente i diritti umani fondamentali, che hanno assunto una dimensione “affievolita”,[3] con conseguenze non indifferenti sia sul piano delle relazioni internazionali, sia sul rispetto del diritto internazionale stesso, i cui valori fondamentali sono, a seguito della fine della seconda guerra mondiale, particolarmente incentrati sulla persona umana.
Un’ulteriore sfida che presto dovremmo affrontare riguarda l’attribuzione della responsabilità in caso di errori dell’IA. Non è certo possibile che sia una macchina a pagare per un eventuale danno causato da una sua decisione. La questione si pone soprattutto nei sistemi di civil law, ad elevata regolamentazione e codificazione per rispondere a un’esigenza di completezza dei sistemi giuridici. Secondo autorevole dottrina,[4] non è necessario un intervento normativo, potendo semplicemente applicarsi una delle norme già presenti nel nostro ordinamento tramite interpretazione estensiva. Il riferimento è agli articoli 2050 del codice civile in materia di responsabilità da esercizio di attività pericolose o ad altre norme sulla responsabilità extracontrattuale, a seconda del fatto specifico.
Al contrario, sembra che il Legislatore nazionale si stia impelagando in un’ipertrofia legislativa che punta a privilegiare il pensiero etico ed empirico rispetto all’approccio sistematico, confondendo (nel senso di mischiare) due ordinamenti strutturalmente diversi: quello di common law e quello di civil law.
Leggi anche:
- Le nuove frontiere dell’Intelligenza Artificiale
- L’Intelligenza Artificiale, lo stato dell’arte della collaborazione internazionale
- Algoritmi che uccidono
Le opportunità dell’IA per i diritti umani
Naturalmente, non tutte le conseguenze di questa innovazione sono negative o potenzialmente tali. Infatti, molteplici sono le opportunità per rafforzare i diritti umani: l’utilizzo dell’intelligenza artificiale infatti ha la capacità di influenzare l’accesso all’istruzione, permettendo a chiunque abbia un computer (o un telefono) di accedere a molteplici contenuti, di creare piani di studio o di lavoro personalizzati e altamente funzionali. Se da una parte esiste comunque un problema di disuguaglianze, soprattutto reddituale per lo skill-biased technical change,[5] l’accesso a così tanti dati e a un soggetto capace di dare costantemente una risposta più o meno appropriata o nozioni utili in diversi ambiti rendono meno evidenti le differenze di classe tra gli alunni di una scuola o tra chi può permettersi determinati strumenti (come tutor privati) e chi no.
Nel settore sanitario, l’IA aiuta già nella diagnosi precoce di malattie e nell’ottimizzazione delle cure, contribuendo alla realizzazione del diritto alla salute. Sempre più medici e istituti sanitari stanno implementando sistemi basati sull’intelligenza artificiale per migliorare le proprie prestazioni: la capacità di elaborare grandi quantità di dati velocemente e con un margine di errore estremamente ridotto garantisce un’azione rapida, efficace e tempestiva, capace di salvare vite umane come mai prima d’ora.[6]
Allo stesso tempo, gli strumenti di analisi dei dati e il cosiddetto machine learning vengono sempre più utilizzati per identificare e documentare abusi dei diritti umani in contesti di conflitto o regimi repressivi. L’IA può analizzare immagini satellitari per individuare distruzioni di villaggi o rilevare ulteriori violazioni, anche online, come la disinformazione e l’incitamento all’odio. Bisogna, tuttavia, sempre tenere in considerazione la necessità di un’adeguata istruzione di tale intelligenza, in quanto è imperativo evitare una dittatura dei diritti sociali, dove la libertà di espressione o la diversità di pensiero siano castrate per evitare un normale fastidio verso un individuo. La Gran Bretagna ad oggi rappresenta un esempio di tale deriva, con un numero di incarcerazioni per reati di opinione, un concetto estremamente vasto nel Paese anglosassone, di molto superiore a quello di Stati tradizionalmente poco inclini alla diversità di vedute e al dibattito politico.
Verso una regolamentazione etica e giuridica dell’IA
Per garantire che l’IA sia uno strumento di progresso e non di oppressione, è fondamentale una regolamentazione chiara e globale. Organizzazioni internazionali come l’ONU e l’Unione Europea stanno sviluppando linee guida per un’IA etica e responsabile, coordinando un approccio globale con una regolamentazione regionale capace di fornire uno spunto per le legislazioni nazionali di tutta la comunità internazionale.
I principi fondamentali devono includere la trasparenza degli algoritmi, i quali debbono essere accessibili e comprensibili; la non discriminazione, mediante l’eliminazione dei bias nei dati e nei modelli, senza politicizzarli nell’uno o nell’altro senso; l’ obbligo di tutela della privacy, assicurando la protezione dei dati personali sensibili (informazioni relative alla religione, agli orientamenti politici e sessuali, all’appartenenza a organizzazioni, e simili) e sensibilissimi (quali i dati relativi alle cartelle mediche, alle condanne penali e ai dati genetici e biometrici di una persona).
Fondamentale in tutti questi approcci è il l’obbligo di una costante supervisione umana: nessuna decisione critica deve essere lasciata interamente all’Intelligenza Artificiale.
Strumenti di diritto internazionale per la regolamentazione dell’IA
A livello internazionale, l’ONU ha avviato il lavoro dell’ Open-Ended Working Group (OEWG) sulla sicurezza informatica e le comunicazioni, volti a definire linee guida e raccomandazioni per l’uso responsabile dell’IA in ambito cibernetico e di sicurezza. Questi gruppi di lavoro affrontano temi chiave come la prevenzione dell’uso malevolo dell’IA negli attacchi cibernetici; la protezione delle infrastrutture critiche da attacchi informatici basati su IA; l’elaborazione di principi internazionali per l’uso responsabile dell’IA nella difesa e nella sicurezza globale.
Parallelamente, le Nazioni Unite hanno istituito l’High-level Advisory Body on Artificial Intelligence per affrontare le sfide e le opportunità legate all’IA.
Nel settembre 2024, questo organismo ha presentato un rapporto con sette raccomandazioni chiave per una governance globale dell’IA:[7]
- Creazione di un panel scientifico internazionale per fornire consulenze imparziali sull’IA.
- Avvio di un dialogo politico globale per ancorare la governance dell’IA ai diritti umani e al diritto internazionale.
- Sviluppo di un fondo globale per l’IA per garantire una distribuzione equa della tecnologia.
- Stabilimento di un quadro globale per i dati per promuovere la trasparenza e la responsabilità.
- Creazione di un’agenzia all’interno delle Nazioni Unite per coordinare gli sforzi globali sull’IA.
- Promozione di benefici comuni attraverso l’uso dell’IA.
- Collegamento tra organizzazioni e aziende tecnologiche per affrontare le sfide dell’IA.
Tuttavia, come noto, l’ONU non è in grado di emanare atti di hard law, se non nel caso delle risoluzioni del Consiglio di sicurezza ex capo VII della Carta. L’Assemblea generale si limita infatti alle risoluzioni, tipici atti di soft law, e a fornire un forum internazionale per la stipula di trattati internazionali, laddove necessario.
Caso diverso è l’Unione europea, l’Organizzazione internazionale regionale più complessa nel panorama odierno. Un esempio concreto di hard law è il Regolamento Europeo sull’Intelligenza Artificiale, approvato nel 2023. Esso segna una pietra miliare nella governance tech globale, puntando a garantire un uso sicuro e responsabile dell’IA. Il regolamento adotta un approccio basato sul rischio, classificando le applicazioni IA in quattro categorie – da quelle a rischio minimo a quelle ad alto rischio, come i sistemi di sorveglianza o di controllo delle infrastrutture critiche. In particolare, stabilisce requisiti stringenti per la trasparenza, la tracciabilità e la gestione dei dati, mirati a proteggere i diritti fondamentali e a prevenire discriminazioni. Il regolamento prevede anche la creazione di una Autorità Europea per l’IA, che avrà il compito di vigilare sul rispetto delle normative e di armonizzare gli standard tra gli Stati membri.
Grazie a questa nuova iniziativa normativa, l’UE è considerata ad oggi un precursore dei tempi, mentre altri Paesi hanno adottato approcci molto più liberali, come gli USA, o mantengono le aziende sotto lo stretto controllo dello Stato, come nel caso cinese.
Conclusioni
L’Intelligenza Artificiale rappresenta una sfida senza precedenti per la tutela dei diritti umani, ma anche un’opportunità straordinaria per migliorarne la protezione. Il futuro dipenderà dalle scelte etiche, regolamentari e tecnologiche che adotteremo oggi. Solo tramite un approccio bilanciato che trovi un punto di equilibrio tra innovazione e diritti umani potremo garantire che sia l’Intelligenza Artificiale al servizio dell’umanità e non il contrario.
Note
[1] R. BALDWIN, The Great Convergence, Harvard University Press, 2016.
[2] L. MISCHITELLI, La AI per la guerra diventa realtà: la svolta con gli ultimi conflitti, 2024, disponibile al link:https://www.agendadigitale.eu/sicurezza/luso-dellia-in-guerra-rivoluzione-tecnologica-e-rischi-globali/.
[3] B. CALDERINI, Sorveglianza di massa, la Cina è un sistema a “diritti affievoliti”: perché lo tolleriamo e cosa rischiamo, 2022, disponibile al link: https://www.agendadigitale.eu/sicurezza/la-cina-e-un-sistema-a-diritti-affievoliti-perche-lo-tolleriamo-e-cosa-rischiamo.
[4] U. RUFFOLO, Intelligenza artificiale, machine learning e responsabilità da algoritmo, Giuffré. 2019, p.1657.
[5] P. AGHION et al., Deunionization, technical change and inequality, Carnegie-Rochester Conference Series on Public Policy, 2001.
[6] P. BUSCEMI, Intelligenza artificiale e salute, 2023, disponibile al link: https://www.saluteinternazionale.info/2023/10/intelligenza-artificiale-e-salute/.
[7] S. MUKHERJEE, UN advisory body makes seven recommendations for governing AI, 2024, disponibile al link: https://www.reuters.com/technology/artificial-intelligence/un-advisory-body-makes-seven-recommendations-governing-ai-2024-09-19.
Foto copertina: