Premessa
Con la legge n. 132/2025, pubblicata sulla Gazzetta Ufficiale il 25 settembre, ed entrata in vigore il 10 ottobre, l’Italia si è dotata del primo quadro normativo organico dedicato all’intelligenza artificiale.
Occorre sin d’ora evidenziare che la riforma non risolve tutti i problemi sorti a seguito del rapido sviluppo delle tecnologie digitali, ma introduce alcune norme immediatamente operative, nonché deleghe al Governo per interventi più consistente da realizzarsi nei prossimi mesi.
La legge n. 132/2025, che si affianca al Regolamento UE 2024/1689 (c.d. AI Act), mira infatti a governare l’uso delle nuove tecnologie, attraverso un approccio basato sul rischio e sul rispetto dei diritti fondamentali.
L’introduzione dell’art. 612 quater c.p.
In ambito penale, una delle innovazioni di maggiore rilievo, è l’introduzione dell’articolo 612 quater c.p., denominato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, che sanziona la diffusione, senza il consenso dell’interessato, di immagini, video o registrazioni vocali alterati mediante sistemi di intelligenza artificiale, quando tali contenuti risultino essere idonei a trarre in inganno sulla loro autenticità, nonché a cagionare un danno ingiusto alla persona rappresentata o coinvolta.
La norma amplia quindi l’area della tutela penale rispetto all’art. 612 ter c.p. (c.d. revenge porn), con il quale condivide la logica di protezione della libertà morale e della dignità individuale, ma se ne distingue per l’oggetto materiale: non si punisce qui la divulgazione di un contenuto reale, bensì di un contenuto artificiale, generato o modificato digitalmente in modo da simulare la realtà.
Questo passaggio segna l’ingresso del diritto penale nella dimensione della falsificazione tramite intelligenza artificiale, ove la lesione non deriva dall’esposizione indebita di un fatto vero, ma dalla creazione di un fatto falso, potenzialmente idoneo a incidere sulla reputazione, sull’identità o sulla libertà di autodeterminazione della vittima.
La ratio che ha portato il legislatore ad introdurre questo nuovo delitto è quella di scoraggiare la produzione e la circolazione di materiali “deepfake” che, pur non corrispondendo a fatti o situazioni reali, possano produrre effetti dannosi alla sfera privata o professionale del soggetto rappresentato.
Da un punto di vista sistematico, l’art. 612 quater c.p. si colloca nell’area dei reati contro la libertà morale, ma incide in realtà direttamente anche sull’area della tutela dell’identità personale e della riservatezza dei dati digitali.
Si tratta, in sostanza, di una norma di protezione individuale che mira a presidiare una nuova forma di aggressione resa possibile dall’utilizzo improprio delle tecniche di intelligenza artificiale.
L’introduzione di questa nuova fattispecie autonoma di reato consente quindi di perseguire condotte che, prima della riforma, faticavano a trovare un inquadramento tipico negli illeciti penali fino a ieri esistenti.
Le nuove aggravanti legate all’uso dell’intelligenza artificiale
Il legislatore ha introdotto anche una serie di circostanze aggravanti legate all’uso dell’intelligenza artificiale nella commissione dei reati.
All’art. 61 comma 1 c.p. è stata aggiunta un’aggravante comune numerata “11 undecies”, che prevede un aumento della pena se il reato viene commesso “mediante l’impiego di sistemi di intelligenza artificiale”, quando tale impiego costituisce un mezzo insidioso, ostacola la difesa, o aggrava le conseguenze del fatto.
Accanto a questa previsione generale sono state introdotte aggravanti speciali per specifiche figure di reato, tra cui l’aggiotaggio (art. 2637 c.c.), la manipolazione del mercato (art. 185 del D.lgs n. 58/1998) e gli attentati ai diritti politici del cittadino (art. 294 c.p.), nei casi in cui l’utilizzo dell’intelligenza artificiale amplifichi la pericolosità o l’efficacia dell’azione criminosa.
Diritto d’autore e data scraping
La Legge 132/2025 è intervenuta anche in materia di diritto d’autore (L. 22 aprile 1941 n. 633), ove è stato precisato che la tutela autorale spetta esclusivamente alle opere dell’ingegno umano, anche se realizzate con il supporto di strumenti di intelligenza artificiale.
È stata inoltre introdotta una nuova ipotesi di reato, che punisce la riproduzione o l’estrazione non autorizzata di dati o testi da opere protette, anche quando effettuata attraverso sistemi di intelligenza artificiale.
La suddetta disposizione è diretta a contrastare il fenomeno del c.d. data scraping illecito, spesso utilizzato per l’addestramento dei modelli generativi, e mira a rafforzare la protezione degli autori e dei titolari dei diritti nei confronti di attività di raccolta massiva di contenuti svolte senza consenso o licenza.
Le deleghe al Governo
Il testo recentemente approvato contiene altresì alcune deleghe al Governo, il quale è incaricato di emanare, entro 12 mesi dall’entrata in vigore della Legge, più decreti legislativi volti a definire in maniera più rigorosa la responsabilità penale legate all’uso, improprio, dell’intelligenza artificiale.
In particolare, tra le varie tematiche che dovranno essere chiarite vi è anche l’elaborazione di nuove fattispecie di reato collegate alla mancata adozione di misure di sicurezza nella progettazione o nell’utilizzo dei sistemi di intelligenza artificiale, nonché la definizione dei criteri di imputazione della responsabilità quando l’azione o l’omissione coinvolga processi automatizzati.
Responsabilità degli enti (D.lgs 231/2001)
Pur in assenza di un intervento diretto sul testo del D.lgs 231/2001, la disciplina introdotta in materia di intelligenza artificiale presenta anche profili relativi al piano della responsabilità amministrativa degli enti.
In particolare, il nuovo quadro normativo tratta, in via indiretta, alcune fattispecie già rilevanti ai sensi del Decreto Legislativo 231/2001, tra cui i reati in materia di mercato finanziario e di diritto d’autore (di cui si è già detto nei precedenti paragrafi), laddove le relative condotte siano realizzate mediante l’impiego di sistemi di intelligenza artificiale.
Di particolare interesse è sicuramente la delega conferita al Governo per l’adozione di uno o più decreti legislativi volti a disciplinare casi di realizzazione e di impiego illecito dei sistemi di intelligenza artificiale. Nell’esercizio di tale delega, il legislatore sarà chiamato a definire nuovi criteri di imputazione della responsabilità, specie con particolare riguardo al grado di controllo richiesto ed effettivamente esercitato sui sistemi di intelligenza artificiale.
In tale prospettiva diverrà quindi centrale la gestione del rischio connesso all’uso dell’intelligenza artificiale all’interno delle organizzazioni aziendali, con conseguenti possibili ricadute sull’estensione del catalogo dei reati presupposto e sull’adeguamento dei modelli organizzativi ex D.lgs 231/2001.
Conclusioni
Nel complesso, la legge 132/2025 segna un primo passo verso una regolazione più strutturata dell’impiego dell’intelligenza artificiale nel sistema penale.
L’applicazione di queste nuove disposizioni richiederà un’attenzione particolare ai profili di tipicità, all’accertamento dell’elemento soggettivo ed in generale ai doveri di controllo nei contesti in cui vengono utilizzati i sistemi di intelligenza artificiale.
In definitiva, tutti questi aspetti saranno decisivi per poter poi valutare la concreta responsabilità delle persone fisiche e, in prospettiva, degli enti.