Analisi del nuovo articolo 612-quater c.p. “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale” nel sistema dei delitti contro la persona.
Analisi: una legge “onnivora” che tocca anche la libertà sessuale.
La Legge 23 settembre 2025, n. 132 nasce formalmente come legge-quadro in materia di intelligenza artificiale (“Disposizioni e deleghe al Governo in materia di intelligenza artificiale”), ma il suo raggio di azione travalica il perimetro tecnico-tecnologico che si è voluto dare. Essa incide e abbraccia il diritto positivo ovvero le competenze civilistiche ed anche quelle del diritto penale, tra cui la libertà sessuale e la tutela dell’identità personale. Il testo di legge, pubblicato sulla Gazzetta Ufficiale il 25 settembre 2025, rappresenta in modo incisivo, il primo intervento organico dell’ordinamento italiano volto a disciplinare ricerca, sviluppo, impiego e controllo dei sistemi di intelligenza artificiale, in stretta connessione con il Regolamento (UE) 2024/1689 (cd. AI Act) e nel solco delle politiche europee di tipo “risk-based”, che mirano a bilanciare innovazione tecnologica e protezione dei diritti fondamentali.
Quello che risalta già da una prima lettura, è che nel preambolo si coglie come il legislatore abbia voluto collocare la legge 132/2025 nel continuum normativo che va dalla Convenzione di Istanbul del 2011, ratificata con legge 77/2013, fino alla legge 168/2023 sulle misure di contrasto alla violenza sulle donne e alla violenza domestica; ciò rivela che, pur trattandosi di una legge “sull’IA”, essa è pensata anche come strumento di tutela rafforzata nei contesti di violenza di genere, stalking digitale e violenza sessuale, soprattutto nelle forme “virtuali” oggi rese possibili da contenuti manipolati e deepfake.
È notorio come l’evoluzione tecnologica, abbia reso possibile un salto qualitativo negli abusi a sfondo sessuale: non solo con la diffusione non consensuale di immagini intime reali (già sanzionata dall’art. 612-ter c.p.), ma anche con la produzione di video o immagini completamente artefatte, generate dall’IA, che rappresentano una persona inserita in contesti sessuali che non ha mai vissuto. La legge 132/2025 interviene proprio in questo scenario normativo, introducendo un nuovo delitto: l’art. 612-quater c.p. “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, e un’aggravante comune legata all’uso di sistemi di IA (art. 61, n. 11-decies c.p.), oltre a una nuova fattispecie in materia di diritto d’autore e ad altre aggravanti speciali.
In questa prospettiva di introduzione, la legge si pone come tassello di un mosaico più ampio: la nuova fattispecie nasce come risposta a un fenomeno tecnologico che, per qualità e pervasività, ha ormai assunto una dimensione tale da imporre una tutela penale espressa, sia per ragioni di sistematicità, sia per le pesanti conseguenze che tali contenuti possono avere sull’identità, la reputazione e la libertà morale delle persone coinvolte.
La nuova fattispecie di cui all’art. 612-quater c.p. e il rapporto con il consenso.
Il cuore penalistico della legge 132/2025, almeno per ciò che qui interessa, è rappresentato dall’introduzione dell’art. 612-quater c.p., rubricato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. La norma punisce “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni”.
Analizzando la norma, ciò che si evince è che si tratta di un tipico delitto di danno, che richiede chiaramente il verificarsi di un “danno ingiusto” – anche non patrimoniale – e che, sul piano topografico, si colloca tra i delitti contro la libertà morale, a conferma che il bene giuridico tutelato è la persona nella sua identità, autodeterminazione e integrità psichica, più che il patrimonio o interessi meramente economici.
Dal punto di vista strutturale, la fattispecie presenta alcune scelte molto chiare. Preliminarmente, sul piano del bene giuridico tutelato, la collocazione sistematica tra i delitti contro la persona segnala che la norma non protegge primariamente la riservatezza dei dati o interessi patrimoniali connessi all’immagine, bensì un complesso di diritti personalissimi tutelati dalla nostra costituzione come l’identità personale, la reputazione, al libertà morale e il diritto all’autodeterminazione anche nella sfera affettivo-sessuale quando il contenuto ha tale connotazione. La nuova norma appena introdotta, è identificabile con un reato di danno – non di pericolo astratto – in quanto è richiesto che la condotta “cagioni un danno ingiusto”: danno che può assumere forme molteplici, dalla compromissione della reputazione professionale alla devastazione della vita privata, fino all’impatto psichico e relazionale derivante dalla percezione, da parte della cerchia sociale o di un pubblico ampio, di contenuti falsamente attribuiti alla vittima.
Un ulteriore elemento caratterizzante, è il difetto di consenso della persona rappresentata: la norma non colpisce qualunque uso di contenuti generati con IA raffiguranti una persona identificabile, ma solo quelli diffusi senza la volontà della stessa. Il consenso, in questo contesto, assume un ruolo simile a quello che ha nelle fattispecie in materia di trattamento dei dati personali o di diffusione di immagini intime; non è sufficiente un generico assenso all’uso dell’immagine, ma occorre una volontà riferita precisamente al tipo di contenuto e alle modalità di diffusione. In mancanza, l’ingerenza sull’identità digitale e sull’immagine della persona è qualificata come “ingiusta” e diventa penalmente rilevante.
Quanto al profilo soggettivo, la fattispecie richiede il dolo generico: ovvero rappresentazione e volizione da parte dell’agente, di essere consapevole sia del carattere artificiale o manipolato del contenuto, sia della mancanza di consenso della persona, accettando il rischio di provocarle un danno ingiusto. Non è prevista, allo stato, una specifica aggravante nel caso in cui la diffusione abbia finalità estorsive, di ricatto o di coercizione sessuale, ipotesi che saranno verosimilmente coperte dal concorso con altre fattispecie. Infine, va ricordato che la legge 132/2025 interviene anche sulle circostanze aggravanti comuni, introducendo il nuovo n. 11-decies all’art. 61 c.p., che inasprisce la pena in tutti i reati commessi mediante l’impiego di sistemi di IA, riconoscendo così a livello sistematico la particolare pericolosità del mezzo tecnologico.
Motivi, critica e prospettive sul consenso: una riforma confermativa più che innovativa.
La scelta di introdurre una fattispecie autonoma per la diffusione di deepfake risponde a un’esigenza reale, che dottrina e prassi segnalavano da tempo. L’idea centrale della legge 132/2025 – sul piano europeo, condivisa dall’AI Act – è quella di riconoscere che l’intelligenza artificiale, pur potendo generare benefici notevoli in termini di sviluppo economico e sociale, rappresenta al contempo una fonte di rischi significativi per i diritti fondamentali, in particolare quando è utilizzata per manipolare contenuti che riguardano la persona. In questo quadro, il deepfake è stato individuato come una delle manifestazioni più insidiose dell’abuso di IA: esso consente, con costi bassissimi e competenze medie, di creare scenari falsi che, una volta diffusi, sfuggono al controllo, dando luogo a forme di violenza digitale difficilmente reversibili.
Sul piano della politica criminale, l’introduzione dell’art. 612-quater appare dunque coerente con la necessità di offrire una tutela mirata a condotte che, fino a oggi, sfuggivano alla presa delle fattispecie tradizionali o vi ricadevano solo forzando gli schemi tipici. È indicativo che più commentatori abbiano sottolineato come l’obiettivo principale della nuova norma sia quello di reprimere la diffusione non consensuale di deepfake, soprattutto quando abbiano contenuto sessuale o comunque lesivo della reputazione, recependo in sede nazionale le sollecitazioni della Direttiva (UE) 2024/1385 sulla violenza contro le donne e la violenza domestica, che espressamente menziona anche immagini manipolate.
Non mancano, tuttavia, profili critici. Una prima obiezione riguarda l’opportunità sistematica di creare una nuova fattispecie autonoma, invece di ampliare il perimetro di applicazione di norme già esistenti, in primis l’art. 612-ter c.p. sulla diffusione illecita di immagini o video sessualmente espliciti. Una parte della dottrina aveva proposto, infatti, di intervenire su quest’ultima disposizione, includendo espressamente tra i contenuti protetti anche quelli generati o manipolati artificialmente; ciò avrebbe consentito di mantenere concentrata in un unico articolo la disciplina degli abusi legati all’immagine a contenuto sessuale, reale o artificiale che fosse, evitando la proliferazione di figure contigue. La scelta di creare un art. 612-quater separato ha il pregio di dare autonoma visibilità al fenomeno dei deepfake, ma rischia di appesantire un codice penale già caratterizzato da un’elevata frammentarietà.
Un secondo profilo problematico attiene alla delimitazione del “danno ingiusto” e alla prova dell’idoneità ingannatoria del contenuto. È verosimile che la giurisprudenza sarà chiamata a misurarsi con casi di confine, in cui il deepfake, pur tecnicamente raffinato, è percepito come ironico da una parte del pubblico, mentre dall’altro produce effetti concreti di emarginazione, perdita di lavoro o compromissione di relazioni affettive. La norma affida al giudice un ampio margine di valutazione, che da un lato consente un adattamento flessibile ai casi concreti, dall’altro potrebbe generare oscillazioni interpretative non trascurabili, specie nei primi anni di applicazione.
Infine, il tema cruciale – già emerso nel dibattito – riguarda il rischio di attribuire al diritto penale una funzione eccessivamente “salvifica” rispetto a fenomeni che hanno radici essenzialmente culturali e tecnologiche. L’introduzione di un reato non incide, di per sé, sulla facilità con cui chiunque può installare un software di generazione di immagini o video e produrre contenuti manipolati; né risolve il problema della tracciabilità delle fonti, della responsabilità delle piattaforme, dell’educazione digitale degli utenti. La stessa legge 132/2025 ne è consapevole, tanto da affiancare alla nuova incriminazione una serie di deleghe al Governo per adottare, entro dodici mesi, decreti legislativi in materia di dati, algoritmi e metodi matematici per l’addestramento di sistemi di IA, nonché per adeguare la normativa nazionale all’AI Act, con particolare attenzione agli obblighi di trasparenza, di etichettatura dei contenuti generati e ai meccanismi sanzionatori. È su questo terreno, più che su quello strettamente penale, che si giocherà gran parte dell’efficacia complessiva del sistema di tutela.
Conclusioni: tra conferma normativa ed esigenza di educazione affettiva.
L’art. 612-quater c.p., introdotto dalla legge 23 settembre 2025 n. 132, rappresenta un tassello importante nel processo di adattamento del diritto penale all’era dell’intelligenza artificiale. Esso dà una risposta chiara a un fenomeno – la diffusione di deepfake – che, per la sua capacità di incidere sulla vita delle persone, non poteva più essere lasciato esclusivamente alla combinazione di norme generali, concepite per un mondo analogico. La collocazione tra i delitti contro la persona, la configurazione come reato di danno e il riferimento espresso al consenso della persona ritratta confermano la volontà di porre al centro la tutela della dignità e dell’identità individuale, anche nella loro proiezione digitale.
Al tempo stesso, sarebbe illusorio pensare che la sola introduzione di una nuova fattispecie penale sia sufficiente a contenere il fenomeno. Il diritto penale interviene ex post, quando il danno è già stato prodotto e il contenuto ha spesso già circolato in modo incontrollato. La vera efficacia della legge 132/2025 dipenderà, da un lato, dall’attuazione delle deleghe al Governo in materia di dati e algoritmi, che dovranno concretizzare, entro i termini fissati, un quadro di regole tecniche su addestramento, tracciabilità, trasparenza e responsabilità degli operatori; dall’altro, dalla capacità delle istituzioni di accompagnare la norma con interventi di educazione digitale, di sensibilizzazione sui rischi dell’IA e di formazione degli operatori giudiziari e delle forze dell’ordine.
Si può concludere affermando che l’introduzione dell’art. 612-quater non rappresenta un chiaro punto di partenza: la norma interviene infatti a colmare quelle zone grigie che la giurisprudenza di legittimità era stata costretta, negli anni, a gestire attraverso interpretazioni estensive al limite della tassatività, nel tentativo di ricondurre condotte profondamente nuove entro fattispecie nate per un mondo analogico. Con la tipizzazione legislativa del disvalore del deepfake, viene finalmente meno l’esigenza di affidare ai giudici operazioni interpretative complesse, restituendo al principio di legalità la sua piena funzione garantista e offrendo una tutela espressa, chiara e sistematica agli abusi digitali.
Immagine: La tutela penale contro i deepfake













