Il Consiglio dei ministri ha varato il 23 aprile 2024 il disegno di legge volto a schematizzare il percorso per una normativa italiana sull’intelligenza artificiale.
Al governo viene concessa la delega (art. 22 del DDL IA) di adottare uno o più decreti legislativi per l’adeguamento della normativa nazionale all’AI Act del 13 marzo 2024, approvato dal Parlamento Europeo, come spesso avviene nella prassi italiana per l’adattamento al diritto europeo.
L’“Effetto Bruxelles” dell’IA ACT
In un precedente articolo “L’Intelligenza Artificiale, lo stato dell’arte della collaborazione internazionale”, si evince la rilevanza che si attribuisce all’intelligenza artificiale in politica estera, in termini di collaborazione e competizione.
In quel frangente si è analizzato l’“AI Act”, la regolamentazione europea del 13 marzo 2024 da parte del Parlamento Europeo.
L’Unione Europea con tale regolamentazione sta provando ad utilizzare una precisa tecnica di politica estera conosciuta come l’“Effetto Bruxelles”. L’origine di tale locuzione deriva da Anu Bradford, professoressa statunitense di diritto commerciale internazionale, facendo un’analogia con l’“Effetto California” nel diritto statunitense.
Per “Effetto California” si intende il ruolo di riferimento che ha la California nella trasformazione giuridica e nella creazione di standard normativi, per gli Stati Uniti, in argomenti come l’antitrust, l’utilizzo dei dati, l’intelligenza artificiale e l’ambiente.
L’ “Effetto Bruxelles” si pone in contrapposizione con la fama di potenza decadente dell’Unione Europea, agli occhi della comunità internazionale, garantendole un ruolo di primo piano nella creazione di standard normativi, con l’ambizione di divenire globali. Creando una regolamentazione in ambiti come quello dell’intelligenza artificiale, rende noto alla politica (ed al mercato) internazionale la tipologia di asset che intende promuovere e finanziare, sia da promotore, all’interno dei suoi stessi confini, che da cliente, nei confronti di chi vuole fare affari con l’Unione Europea.
Senza necessariamente ricorrere ad istituzioni internazionali, l’Unione Europea ha la capacità di promulgare regolamenti che modellano il contesto imprenditoriale globale, elevare gli standard a livello mondiale e portare ad una notevole europeizzazione di molti aspetti rilevanti del commercio globale.[1]
La leva pioneristica che dà forza all’Unione Europea si rispecchia nell’effettività che le sue norme hanno nell’ordinamento dei paesi membri e nell’adattamento che questi compiono.
DDL IA
Lo “Schema di disegno di legge recante disposizioni e delega al Governo in materia di intelligenza artificiale” italiano ha un duplice obiettivo: il primo è quello di dare al governo il potere di adeguare la normativa nazionale al Regolamento del Parlamento europeo e del Consiglio sull’intelligenza artificiale, previa consultazione delle Commissioni parlamentari e del Garante per la protezione dei dati personali; il secondo consiste invece nella definizione della disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite. Vengono, nell’Art.22 comma 5, delineati i principi e criteri direttivi per la creazione dei futuri decreti legislativi in materia: “la previsione di strumenti, anche cautelari in ambito civile, amministrativo e penale, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, assistiti da un sistema di sanzioni effettive, proporzionate e dissuasive”. Ciò implica l’“introduzione di una o più autonome fattispecie di reato” e la “revisione, anche a fini di razionalizzazione complessiva del sistema, della normativa sostanziale e processuale vigente” di modo da garantire un “utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale” (art. 1 del disegno di legge).
Il disegno di legge introduce quindi norme di principio e disposizioni di settore che permettano un utilizzo della intelligenza artificiale generativa sia nell’ambito di un miglioramento delle condizioni di vita dei cittadini, sia nella gestione dei rischi derivabili. Risulta quindi strutturato come segue:
Al Capo I vengono analizzati i “Principi e le Finalità” del disegno di legge e di quali siano le linee direttive che le normative sull’intelligenza artificiale dovranno seguire. La dimensione antropocentrica precedentemente citata, riprende essenzialmente la direttiva dell’AI ACT europeo.
Viene ulteriormente definita la necessità di un “trattamento lecito, corretto e trasparente dei dati personali” oltre a definire una maggiore prudenza per l’accesso alla tecnologia ai minori di quattordici anni, per i quali è richiesto il consenso di chi esercita la responsabilità genitoriale. Ai minori di diciotto anni viene invece richiesto il consenso al trattamento dei dati personali connessi all’utilizzo di sistemi di IA, purché le informazioni e le comunicazioni sul trattamento dei dati siano facilmente accessibili e comprensibili.
Vengono inoltre stabiliti principi generali in materia di sviluppo economico e di sicurezza e difesa nazionale. Sono attribuite all’Agenzia per l’Italia digitale (AGID) e all’Agenzia per la cybersicurezza nazionale (ACN) competenze relative allo sviluppo ed al controllo dell’IA in Italia, in quanto enti pubblici di riferimento in materia.
Leggi anche:
- L’Intelligenza Artificiale, lo stato dell’arte della collaborazione internazionale
- L’Assemblea Generale ONU ha approvato la prima risoluzione sull’Intelligenza Artificiale
Nel Capo II vengono definite le “Disposizioni di settore”, in quanto intervengono nelle diverse potenziali applicazioni della tecnologia. Gli articoli 7, 8 e 9 sono dedicati all’uso dell’IA in ambito sanitario e di disabilità; gli articoli 10, 11 e 12 si dedicano al mondo del lavoro; l’art. 13 alla pubblica amministrazione; gli art. 14 e 15 all’attività giudiziaria; l’art. 16 al rafforzamento della cybersecurity nazionale.
Affrontando a volo d’uccello le diverse traduzioni settoriali dell’IA, si ricava un’impregiudicata spettanza della decisione da parte umana, ad esempio in ambito giuridico da parte del giudice o per ciò che concerne la professione medica, riconoscendo al contempo l’efficienza dello strumento come potenziale enzima di risoluzione burocratica, come per l’integrazione nei sistemi di pubblica amministrazione. Si osserva la necessità di un rapporto fiduciario e come, in relazione all’assicurazione di tale rapporto tra professionista e cliente “le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”. Infine, si rende noto l’essenziale rilevanza che la promozione di partenariato tra pubblico e privato ha, nei termini della valorizzazione dell’intelligenza artificiale come “risorsa per il rafforzamento della cybersicurezza nazionale”.
Al Capo III si gettano le basi per una “Strategia Nazionale, un’autorità nazionale e le azioni di promozione”.
Secondo l’art. 17 la strategia nazionale deve essere approvata a cadenza biennale dal Comitato interministeriale per la transizione digitale (CITD). Vengono successivamente istituite le Autorità nazionali per l’intelligenza artificiale, come precedentemente osservato, AgID e ACN, con il compito di garantire l’applicazione e l’attuazione della normativa nazionale ed europea.
Viene posta l’attenzione sul sostegno alla formazione in ambito di intelligenza artificiale e “si prevedono investimenti per un ammontare complessivo di 1 miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico delle telecomunicazioni e delle tecnologie per queste abilitanti, al fine di favorire lo sviluppo, la crescita e il consolidamento delle imprese operanti in tali settori”[2].
Nel Capo IV vengono compiute diverse analisi relative alle “Disposizioni a tutela degli utenti e in materia di diritto d’autore”.
Infine, al Capo V vengono affrontate le disposizioni penali e le modifiche da attribuire al codice penale, come per l’Art.612-quarter relativa all’illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale, dove “Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o alterati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.”.
Infine, per ciò che riguarda le disposizioni finanziarie si prevede che “dall’attuazione della presente legge non devono derivare nuovi o maggiori oneri a carico della finanza pubblica”. Si evince quindi che i fondi precedentemente osservati, ossia il miliardo previsto al Capo III, così come l’autorizzazione di spesa di 300.000€ annui per il 2025 e 2026 nell’“applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale” (art. 19), derivino da fondi già stanziati in precedenza e rimodulati, come nel caso del “Fondo di riserva e speciale”, per le attività riguardanti il MAECI.
Il DDL IA risulta quindi essere un primo passo, che affronta la questione dell’applicazione, ed applicabilità dell’intelligenza artificiale in modo generale. L’ampio spettro delle possibilità che offre l’intelligenza artificiale non è sicuramente stato definito, né risulta definibile con un unico atto, eventualità prevista nello stesso disegno nei termini in cui la delega al governo viene prevista per i futuri decreti legislativi in materia (art. 22.1 del DDL).
L’approccio alle nuove tecnologie, come quello dell’intelligenza artificiale deve essere sicuramente più fluido ed elastico, poiché la stessa tecnologia è in una fase di evoluzione costante.
La politica ha quindi un ruolo fondamentale, che è quello di contenere ed indirizzare le spinte tecnologiche verso un’ottica antropocentrica, come osservato dall’AI Act europeo, e come riaffermato dal disegno di legge italiano.
Simbolico risulta che il disegno di legge italiano avviene a quasi un anno esatto dalla “limitazione provvisoria del trattamento dei dati personali degli interessati stabiliti nel territorio italiano” da parte del garante della privacy italiano nei confronti di ChatGPT, maggiore distributore del servizio di IA, come misura d’urgenza radicale volta ad una maggiore trasparenza e correttezza sull’utilizzo dei dati.
Paragonando quindi i tempi della tecnologia, che permettono in termini di calcolo quantistico l’esecuzione in 3 minuti, di calcoli che richiederebbero 10mila anni[3], con quelli della politica possiamo osservare come la necessità di un approccio evolutivo ed elastico sia l’unico metodo per garantire l’effettività della norma sulla tecnologia.
Note
[1] Bradford, Anu, The Brussels Effect: How the European Union Rules the World (New York, 2020; online edn, Oxford Academic, 19 Dec. 2019), accessed 25 Apr. 2024
[2] Comunicato Stampa del Consiglio dei ministri n.78, 23 aprile 2024
[3] Simonetta B. (2019, September 23). Così il computer quantistico di Google esegue calcoli da 10mila anni in 3 minuti. Il Sole 24 ORE.
Foto copertina: DDL IA, la via italiana all’intelligenza artificiale