{"id":1134,"date":"2026-01-12T18:57:53","date_gmt":"2026-01-12T17:57:53","guid":{"rendered":"https:\/\/sites.unica.it\/ict4lawforensics\/?p=1134"},"modified":"2026-01-12T18:57:53","modified_gmt":"2026-01-12T17:57:53","slug":"il-nuovo-reato-di-deep-fake-riflessioni-tecnico-giuridiche-sullarticolo-612-quater-del-codice-penale","status":"publish","type":"post","link":"https:\/\/sites.unica.it\/ict4lawforensics\/2026\/01\/12\/il-nuovo-reato-di-deep-fake-riflessioni-tecnico-giuridiche-sullarticolo-612-quater-del-codice-penale\/","title":{"rendered":"Il nuovo reato di deep fake: riflessioni tecnico \u2013 giuridiche sull\u2019articolo 612 &#8211; quater del codice penale"},"content":{"rendered":"\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p><em>L&#8217;art. 26 della Legge 23 settembre 2025, n. 132  ha introdotto nel codice penale l&#8217;art. 612-quater, rubricato &#8220;Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale&#8221;. La fattispecie incriminatrice sanziona con la reclusione da uno a cinque anni chiunque cagioni un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l&#8217;impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinit\u00e0.<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-28f84493 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:100%\">\n<div class=\"wp-block-file aligncenter has-background\" style=\"border-width:6px;border-radius:84px;background:radial-gradient(rgb(255,245,203) 0%,rgb(182,227,212) 50%,rgb(51,167,181) 100%);margin-top:var(--wp--preset--spacing--30);margin-right:var(--wp--preset--spacing--30);margin-bottom:var(--wp--preset--spacing--30);margin-left:var(--wp--preset--spacing--30);padding-top:var(--wp--preset--spacing--40);padding-right:var(--wp--preset--spacing--40);padding-bottom:var(--wp--preset--spacing--40);padding-left:var(--wp--preset--spacing--40)\"><a id=\"wp-block-file--media-4f1ca313-df43-49cf-ae60-983838f8f415\" href=\"http:\/\/sites.unica.it\/ict4lawforensics\/files\/2026\/01\/PRIOLO_DEEP_FAKE.pdf\"><strong><span class=\"uppercase\">Scarica_Articolo_DeepFake<\/span><\/strong><\/a><a href=\"http:\/\/sites.unica.it\/ict4lawforensics\/files\/2026\/01\/PRIOLO_DEEP_FAKE.pdf\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-4f1ca313-df43-49cf-ae60-983838f8f415\">Download<\/a><\/div>\n<\/div>\n<\/div>\n\n\n\n<p class=\"is-style-info\">Sommario: 1. Inquadramento normativo e dimensione socio-tecnologica del fenomeno \u2013 2. Profili sostanziali \u2013 3. Criticit\u00e0 tecnico-informatiche nella definizione normativa e problemi di determinatezza \u2013 4. Profili di accertamento forense digitale dei deep fake \u2013 5. La rapidit\u00e0 dell&#8217;obsolescenza tecnologica e l&#8217;adattabilit\u00e0 normativa \u2013 6. Considerazioni conclusive<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>1. Inquadramento normativo e dimensione socio-tecnologica del fenomeno<\/strong><\/p>\n\n\n\n<p>L&#8217;art. <strong>26 della Legge 23 settembre 2025, n. 132<\/strong> (per una panoramica pi\u00f9 ampia sulla nuova legge in materia, si rimanda a \u201c<a href=\"https:\/\/sites.unica.it\/ict4lawforensics\/2025\/10\/08\/approvata-la-legge-italiana-sullia-verso-un-primato-europeo\/\"><em>Approvata la legge italiana sull\u2019IA. Verso un primato europeo<\/em><\/a>?\u201d) ha introdotto nel codice penale l&#8217;art. 612-quater, rubricato &#8220;<em>Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale<\/em>&#8220;. La fattispecie incriminatrice sanziona con la reclusione da uno a cinque anni chiunque cagioni un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l&#8217;impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinit\u00e0.<\/p>\n\n\n\n<p>L&#8217;intervento normativo si colloca nell&#8217;alveo dell&#8217;adeguamento al <strong>Regolamento (UE) 2024\/1689<\/strong> ( cd. <em>AI Act<\/em>), che ha istituito un sistema di governance multilivello dell&#8217;intelligenza artificiale basato su una classificazione del rischio. Tuttavia, a differenza dell&#8217;approccio regolatorio dell&#8217;AI Act, che privilegia misure preventive e obblighi di conformit\u00e0 per gli operatori economici, la norma italiana introduce una tutela di tipo repressivo-sanzionatorio, tipica del diritto penale.<\/p>\n\n\n\n<p>La collocazione sistematica della fattispecie tra i delitti contro la persona e, specificamente, contro la libert\u00e0 morale, successiva agli atti persecutori (art. 612-bis c.p.) e al revenge porn (art. 612-ter c.p.), evidenzia la natura del bene giuridico tutelato che attiene alla sfera pi\u00f9 intima della personalit\u00e0 individuale, alla libert\u00e0 di autodeterminazione e al pieno svolgimento della personalit\u00e0 umana ex art. 2 Cost. Tale scelta topografica non \u00e8 dunque casuale: il legislatore riconosce che la manipolazione digitale dell&#8217;identit\u00e0 personale mediante sistemi di IA generativa rappresenta una forma di violenza psicologica e di lesione dell&#8217;integrit\u00e0 morale comparabile, per gravit\u00e0, alle condotte persecutorie e alle violazioni della privacy sessuale.<\/p>\n\n\n\n<p>La ratio della criminalizzazione si fonda, in sintesi, su tre pilastri concettuali:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l&#8217;esigenza di tutela anticipata rispetto alle tradizionali fattispecie di evento, attesa l&#8217;elevatissima idoneit\u00e0 lesiva dei contenuti manipolati mediante IA;<\/li>\n\n\n\n<li>la necessit\u00e0 di sanzionare specificamente la dimensione tecnologica della condotta, riconoscendo l&#8217;IA quale moltiplicatore di offensivit\u00e0;<\/li>\n\n\n\n<li>la valorizzazione del consenso quale cardine della disponibilit\u00e0 della propria immagine digitale, secondo una logica di autodeterminazione informativa coerente con la normativa sulla protezione dei dati personali<a href=\"#_ftn1\" id=\"_ftnref1\"><sup>[1]<\/sup><\/a>.<\/li>\n<\/ul>\n\n\n\n<p>Peraltro, \u00e8 opportuno precisare che prima dell&#8217;entrata in vigore della legge 132\/2025, l&#8217;ordinamento presentava una lacuna di tutela difficilmente colmabile mediante il ricorso alle fattispecie incriminatrici tradizionali, ad eccezione del caso di <em>revenge porn<\/em> a contenuto sessuale. Le <strong>ipotesi astrattamente applicabili<\/strong> &#8211; diffamazione (artt. 594-595 c.p.), sostituzione di persona (art. 494 c.p.), trattamento illecito di dati personali (art. 167-bis cod. privacy) &#8211; risultavano <strong>inadeguate<\/strong> a cogliere la peculiare offensivit\u00e0 delle condotte realizzate mediante <em>deep fake<\/em>.<\/p>\n\n\n\n<p>La diffamazione, infatti, postula la lesione della reputazione attraverso comunicazioni di fatti specifici, mentre il <em>&nbsp;deep fake<\/em> opera mediante la creazione di una realt\u00e0 parallela apparentemente autentica; la sostituzione di persona richiede l&#8217;attribuzione a s\u00e9 o ad altri di un&#8217;identit\u00e0 altrui con finalit\u00e0 specifiche, mentre il <em>&nbsp;deep fake<\/em> pu\u00f2 limitarsi a manipolare l&#8217;immagine altrui senza assumerne l&#8217;identit\u00e0; il trattamento illecito di dati personali, infine, presuppone operazioni su dati esistenti, non la creazione ex novo di contenuti sintetici<a href=\"#_ftn2\" id=\"_ftnref2\"><sup>[2]<\/sup><\/a>.<\/p>\n\n\n\n<p>Sebbene il legislatore nazionale abbia introdotto una peculiare fattispecie delittuosa all\u2019articolo 612 \u2013 quater c.p., sul piano definitorio risulta ancora del tutto <strong>assente<\/strong>, invece, una <strong>definizione ufficiale<\/strong> di deep fake. Il primo riferimento risale al 2017, quando un utente di Reddit con lo pseudonimo &#8221; deep fakes&#8221; diede il nome a questa tecnologia, utilizzando architetture \u201c<em>Generative Adversarial Network &#8211; GAN<\/em>\u201d per creare contenuti pornografici non consensuali (meglio descritti come contenuti multimediali generati mediante software di intelligenza artificiale che, utilizzando materiali autentici come immagini o suoni reali, sono in grado di alterare o ricostruire in modo estremamente realistico l&#8217;aspetto, i movimenti e persino la voce di una persona).<\/p>\n\n\n\n<p>Da allora, la diffusione di strumenti sempre pi\u00f9 accessibili ha determinato una proliferazione esponenziale del fenomeno:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>nel 2017-2018, la creazione di un deep fake convincente richiedeva competenze tecniche avanzate, hardware specializzato (GPU di fascia alta), dataset consistenti (centinaia di immagini del soggetto target) e tempi di elaborazione prolungati (giorni o settimane);<\/li>\n\n\n\n<li>nel 2020-2021, l&#8217;avvento di framework open-source come <strong>DeepFaceLab <\/strong>e <strong>Faceswap <\/strong>ha democratizzato la tecnologia, rendendo possibile la creazione di deep fake con strumenti accessibili a utenti non specializzati;<\/li>\n\n\n\n<li>nel 2023-2025, l&#8217;emergere di applicazioni <em>consumer<\/em> e servizi <em>cloud<\/em> ha ulteriormente abbassato le barriere di accesso, permettendo la generazione di<em> deep fake<\/em> di qualit\u00e0 elevata mediante semplici app mobile in pochi minuti.<\/li>\n<\/ul>\n\n\n\n<p>L\u2019etimologia del termine, che fonde &#8220;deep learning&#8221; e &#8220;fake&#8221;, rivela la matrice tecnologica del fenomeno: si tratta di artefatti prodotti mediante reti neurali profonde, segnatamente attraverso architetture basate su Generative Adversarial Networks (GAN), Variational Autoencoders (VAE) o, pi\u00f9 recentemente, modelli di diffusione (diffusion models).<\/p>\n\n\n\n<p>Dal punto di vista tecnico, il processo di generazione di un &nbsp;deep fake pu\u00f2 essere scomposto in diverse fasi tecniche: (i) raccolta e preprocessing dei dati di training, che consiste nell&#8217;acquisizione di un corpus di immagini, video o registrazioni audio del soggetto target e nella loro elaborazione mediante tecniche di normalizzazione, allineamento facciale, segmentazione e augmentation; (ii) addestramento del modello generativo, mediante il quale una rete neurale apprende le caratteristiche statistiche e morfologiche del soggetto attraverso l&#8217;ottimizzazione iterativa di funzioni di loss complesse; (iii) sintesi del contenuto manipolato, in cui il modello addestrato genera nuovi contenuti sintetici applicando le caratteristiche apprese a materiali di input diversi; (iv) post-processing e raffinamento, che include operazioni di color grading, blending, compositing e temporal smoothing per aumentare il realismo del risultato finale.<\/p>\n\n\n\n<p>Le manifestazioni del fenomeno deep fake sono molteplici e di crescente pericolosit\u00e0 sociale, con impatti che trascendono la sfera individuale per investire la dimensione collettiva della fiducia informativa e dell&#8217;integrit\u00e0 del discorso pubblico.<\/p>\n\n\n\n<p>Sul piano delle lesioni individuali, a titolo esemplificativo, si registrano la pornografia non consensuale (<em><strong>deep fake porn<\/strong><\/em>) che costituisce la forma pi\u00f9 diffusa e lesiva, con stime che indicano oltre il 96% dei deep fake online come contenuti pornografici non consensuali; frodi e truffe sofisticate, realizzate mediante sintesi vocale e video per impersonare dirigenti aziendali, familiari o autorit\u00e0; danneggiamento reputazionale mediante la creazione di contenuti compromettenti falsi; ricatti e estorsioni basati sulla minaccia di diffusione di deep fake lesivi.<br>Sul piano sociale e istituzionale, gli effetti pi\u00f9 severi si riverberano nei fenomeni di disinformazione politica mediante la creazione di dichiarazioni false attribuite a figure pubbliche, ovvero di manipolazione dell&#8217;opinione pubblica attraverso campagne coordinate di diffusione di contenuti sintetici. Altri esempi riguardano l\u2019erosione della fiducia nei media e nelle istituzioni derivante dall&#8217;incertezza sulla veridicit\u00e0 dei contenuti, nonch\u00e9 l\u2019interferenza nei processi democratici attraverso la diffusione strategica di deep fake in periodi elettorali.<\/p>\n\n\n\n<p><strong>2. Profili sostanziali<\/strong><\/p>\n\n\n\n<p>Alla luce delle premesse finora svolte, si pu\u00f2 affermare che il neo-delitto evidenzia un&#8217;esigenza di tutela innovativa della persona rispetto ai pericoli delle tecnologie di intelligenza artificiale. La collocazione sistematica dopo l&#8217;art. 612-ter c.p. (revenge porn) manifesta l&#8217;espansione dei rischi nella societ\u00e0 tecnologica, ma il bene giuridico tutelato appare pi\u00f9 ampio e non riducibile alla sola riservatezza sessuale.<\/p>\n\n\n\n<p>Secondo autorevole dottrina<a href=\"#_ftn3\" id=\"_ftnref3\"><sup>[3]<\/sup><\/a> si tratterebbe di un diritto nuovo: il diritto a non essere ingannati o condizionati sfavorevolmente dall\u2019intelligenza artificiale.Tale interesse trova fondamento nell&#8217;art. 5, lett. a), AI Act, che vieta le pratiche manipolative o ingannevoli aventi lo scopo di distorcere il comportamento umano, configurando rischi inaccettabili gi\u00e0 sanzionati amministrativamente con le pene pi\u00f9 severe.<\/p>\n\n\n\n<p>Il bene giuridico fa capo a qualunque persona destinataria della comunicazione o diffusione dei contenuti manipolati, restando per\u00f2 disponibile attraverso il consenso. L&#8217;offesa \u00e8 penalmente rilevante solo se produce un danno ingiusto che costituisce l&#8217;evento consumativo e deve essere oggetto del dolo dell&#8217;agente.<\/p>\n\n\n\n<p>Nondimeno, la fattispecie richiede l&#8217;impiego tassativo di sistemi di intelligenza artificiale e tale nozione extrapenale, sebbene ampia e criticata, coglie le caratteristiche distintive rispetto ai tradizionali sistemi informatici: l&#8217;autonomia, l&#8217;adattabilit\u00e0 e la capacit\u00e0 di generare output (previsioni, raccomandazioni, decisioni) che possano influenzare ambienti fisici o virtuali. Questi requisiti distintivi, pur al di l\u00e0 delle singole tecniche informatiche, possono e devono essere accertati giudizialmente.<\/p>\n\n\n\n<p>Le condotte tipizzate (cessione, pubblicazione, diffusione) richiamano quelle di fattispecie vigenti in materia di pornografia minorile. In particolare, ci\u00f2 trova conferma nelle nozioni di alterazione e falsificazione: la prima indica la modificazione non autorizzata di un contenuto genuino; la seconda include la creazione integrale di contenuti difformi dall&#8217;originale o dal vero oggettivo. Per alcuni<a href=\"#_ftn4\" id=\"_ftnref4\"><sup>[4]<\/sup><\/a> va respinta un&#8217;interpretazione restrittiva della falsificazione che la subordini alla preesistenza di un contenuto genuino, in quanto rientrano nella fattispecie anche contenuti generati ab origine mediante IA, materialmente o ideologicamente falsi. In ogni caso, il fenomeno supera il porn deep fake, estendendosi alle manipolazioni di dichiarazioni politiche per influenzare l&#8217;opinione pubblica o distorcere competizioni elettorali. Il requisito selettivo fondamentale \u00e8 l&#8217;idoneit\u00e0 oggettiva ad indurre in inganno sulla genuinit\u00e0, valutata rispetto alla comune capacit\u00e0 di discernimento dei destinatari.<\/p>\n\n\n\n<p>L&#8217;elemento del danno ingiusto come evento consumativo appare distonico rispetto alle fattispecie analoghe che si consumano con le mere condotte di diffusione e crea problemi di accertamento del nesso eziologico data l&#8217;autonomia e imprevedibilit\u00e0 del sistema di IA. <\/p>\n\n\n\n<p>Il regime di procedibilit\u00e0 \u00e8 a querela, con procedibilit\u00e0 d&#8217;ufficio nei casi di connessione con delitti procedibili d&#8217;ufficio, di vittime incapaci per et\u00e0 o infermit\u00e0, e di offesa a pubblica autorit\u00e0 nell&#8217;esercizio delle funzioni. Quest&#8217;ultima previsione estende la nozione di persona offesa oltre le persone fisiche, coinvolgendo enti pubblici, con incertezze sull&#8217;individuazione del soggetto danneggiato.<\/p>\n\n\n\n<p><strong>3. Criticit\u00e0 tecnico-informatiche nella definizione normativa e problemi di determinatezza<\/strong><\/p>\n\n\n\n<p>Stando alla lettera della legge, la fattispecie punisce condotte realizzate &#8220;<em>mediante l&#8217;impiego di sistemi di intelligenza artificiale<\/em>&#8220;, senza, tuttavia, fornire criteri tecnici operativi per discriminare ci\u00f2 che integra intelligenza artificiale da ci\u00f2 che ne resta escluso. Autorevole dottrina ha evidenziato che la condotta risulta eccessivamente generica in quanto riferita a contenuti generati o manipolati con IA, sottolineando l&#8217;assenza di parametri tecnici identificativi. Tale lacuna genera problemi applicativi concreti che investono tanto la fase investigativa quanto quella processuale.<\/p>\n\n\n\n<p>Dal punto di vista dell&#8217;informatica giuridica, per\u00f2, si pongono ulteriori interrogativi fondamentali sulla demarcazione tra sistemi che integrano intelligenza artificiale ai sensi della norma e sistemi che, pur realizzando risultati analoghi, operano mediante paradigmi computazionali differenti.<\/p>\n\n\n\n<p>Si pensi a software come Instagram, Snapchat o ad applicazioni professionali come Adobe Photoshop, i quali applicano filtri che modificano l&#8217;aspetto del volto mediante algoritmi di elaborazione digitale delle immagini. Tali algoritmi operano attraverso operazioni matematiche deterministiche (convoluzione, trasformazioni affini, filtering nel dominio delle frequenze) codificate esplicitamente dai programmatori, ma senza coinvolgere processi di apprendimento automatico da dati. Un filtro che leviga la pelle, rimuove imperfezioni, modifica le proporzioni facciali, altera il colore degli occhi, opera mediante l&#8217;applicazione di funzioni matematiche predefinite ai pixel dell&#8217;immagine.<\/p>\n\n\n\n<p>Al riguardo la questione giuridica \u00e8 se tali manipolazioni integrino &#8220;impiego di sistemi di intelligenza artificiale&#8221; ai sensi dell&#8217;art. 612-quater c.p. Dal punto di vista tecnico, la risposta appare negativa: gli algoritmi di image processing tradizionali non apprendono da dati, non presentano autonomia decisionale, non operano mediante reti neurali o modelli statistici complessi. Tuttavia, dal punto di vista fenomenologico, producono risultati analoghi ai sistemi di IA, immagini alterate che possono indurre in inganno sulla genuinit\u00e0. La definizione normativa non fornisce criteri per risolvere tale ambiguit\u00e0.<\/p>\n\n\n\n<p>Un operatore esperto che utilizzi strumenti professionali di editing video (Adobe After Effects, Nuke, Blender) pu\u00f2 manipolare frame per frame un video per sovrapporre il volto di una persona, mediante tecniche di rotoscoping, chroma keying, tracking manuale dei punti caratteristici, color matching e compositing. Il risultato finale pu\u00f2 essere indistinguibile da un deep fake generato mediante GAN, ma il processo di creazione \u00e8 radicalmente diverso: non coinvolge sistemi di IA, ma competenze artistiche e tecniche applicate manualmente.<\/p>\n\n\n\n<p>L&#8217;operatore, quindi, non impiega sistemi di intelligenza artificiale in senso tecnico, ma utilizza software che automatizzano operazioni specifiche (tracking, stabilizzazione) mediante algoritmi deterministici. Anche in tal caso la lettera della norma suggerirebbe una risposta negativa alla domanda precedentemente posta, ma la ratio della tutela (prevenzione della diffusione di contenuti manipolati idonei a ingannare) suggerirebbe una risposta affermativa. Tale tensione tra elemento letterale e ratio normativa genera incertezza applicativa.<\/p>\n\n\n\n<p>Ancora un esempio di condotta dagli esiti incerti \u00e8 data dal fatto che nella prassi operativa, molti &nbsp;deep fake sono prodotti mediante workflow ibridi che combinano l\u2019utilizzo di algoritmi di IA per alcune fasi specifiche (es. face detection mediante CNN, face-swapping mediante GAN, sintesi vocale mediante modelli text-to-speech) ed interventi manuali per fasi di rifinitura (color grading, compositing finale, correzione manuale di artefatti) oppure impiego di algoritmi tradizionali per operazioni ausiliarie (stabilizzazione, noise reduction, encoding video).<\/p>\n\n\n\n<p>In tali ipotesi, il risultato finale \u00e8 il prodotto di una catena operativa complessa in cui l&#8217;IA costituisce solo uno dei componenti. Dal punto di vista giuridico, sorge il problema di capire se la fattispecie si integra anche quando l&#8217;IA \u00e8 impiegata solo parzialmente nel processo di creazione. <\/p>\n\n\n\n<p>E anche qui la norma non fornisce criteri risolutivi, rimettendo all&#8217;interprete valutazioni caso per caso con alto rischio di arbitrariet\u00e0.<\/p>\n\n\n\n<p>Richiamando le citate difficolt\u00e0 di accertare processualmente l&#8217;elemento normativo &#8220;impiego di sistemi di intelligenza artificiale&#8221;, in uno con l\u2019indeterminatezza tecnica della norma, introduce potenziali disparit\u00e0 di trattamento: infatti, condotte identiche dal punto di vista fenomenologico potrebbero ricevere trattamenti processuali differenti in funzione della sofisticazione tecnologica impiegata, sollevando questioni di uguaglianza sostanziale nell&#8217;applicazione della norma penale.<\/p>\n\n\n\n<p><strong>4. Profili di accertamento forense digitale dei deep fake<\/strong><\/p>\n\n\n\n<p>L&#8217;attribuzione causale tra impiego di IA e produzione del contenuto costituisce un fatto costitutivo del reato, la cui dimostrazione, come noto, grava sull&#8217;accusa in applicazione del principio generale dell&#8217;onere probatorio nel processo penale. Pare opportuno, a questo punto, analizzare i ragionamenti e gli strumenti di cui ci si avvale, in ambito tecnico, per l\u2019esecuzione delle perizie digitali.<\/p>\n\n\n\n<p>L&#8217;accertamento peritale deve rispondere a tre quesiti fondamentali:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>identificazione della manipolazione,<\/li>\n\n\n\n<li>attribuzione tecnologica e<\/li>\n\n\n\n<li>caratterizzazione forense.<\/li>\n<\/ul>\n\n\n\n<p>Per poter rispondere a tali domande, l&#8217;analisi forense dei deep fake si avvale di un complesso di metodologie tecnico-scientifiche che possono essere classificate secondo la tassonomia proposta dal NIST (National Institute of Standards and Technology) nel framework <a href=\"https:\/\/nvlpubs.nist.gov\/nistpubs\/ir\/2022\/NIST.IR.8387.pdf\">Digital Evidence<\/a>. Tale framework, sviluppato inizialmente per l&#8217;analisi forense generale di evidenze digitali, \u00e8 stato adattato e specializzato per rispondere alle peculiarit\u00e0 dei contenuti sintetici generati mediante IA.<\/p>\n\n\n\n<p>La fase di <strong>Collection<\/strong> costituisce il momento critico in cui viene raccolta l&#8217;evidenza digitale, preservandone l&#8217;integrit\u00e0 attraverso procedure che garantiscano la catena di custodia (chain of custody). Nel contesto dei deep fake, questa fase presenta peculiarit\u00e0 tecniche.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><em><strong>Calcolo di hash crittografici. <\/strong><\/em>Immediatamente dopo l&#8217;acquisizione del file sospetto, deve essere calcolato un hash crittografico (tipicamente SHA-256, eventualmente integrato con MD5 per retrocompatibilit\u00e0 con sistemi legacy) del file originale. L&#8217;hash costituisce un&#8217;impronta digitale univoca del contenuto: qualunque modifica, anche minimale, del file produce un hash completamente differente. L&#8217;hash deve essere documentato in un verbale di acquisizione firmato digitalmente e conservato separatamente dall&#8217;evidenza. Nei procedimenti giudiziari, la corrispondenza tra l&#8217;hash calcolato al momento dell&#8217;acquisizione e l&#8217;hash del file presentato in dibattimento costituisce prova dell&#8217;integrit\u00e0 dell&#8217;evidenza.<\/li>\n\n\n\n<li><em><strong>Acquisizione forense dei metadati.<\/strong> <\/em>I file multimediali contengono metadati strutturati che forniscono informazioni cruciali: per le immagini, i metadati EXIF includono modello della fotocamera, impostazioni di scatto, data e ora, coordinate GPS se disponibili, software di post-produzione utilizzato; per i video, i metadati del container (MP4, AVI, MKV) includono codec utilizzati, frame rate, risoluzione, informazioni sulle tracce audio, timestamp di creazione e modifica; per i file audio, i metadati includono formato di encoding, bitrate, sample rate, metadata ID3 per file musicali. Tali metadati devono essere estratti mediante strumenti forensi validati (ExifTool, MediaInfo) e documentati integralmente. Particolare attenzione deve essere posta alla rilevazione di anomalie nei metadati: incongruenze temporali (timestamp di creazione posteriori a timestamp di modifica), incompatibilit\u00e0 tra metadati dichiarati e caratteristiche effettive del file, assenza di metadati tipicamente presenti, presenza di metadati associati a software di manipolazione.<\/li>\n\n\n\n<li><em><strong>Creazione di copie forensi bit-a-bit.<\/strong> <\/em>L&#8217;evidenza originale non deve mai essere analizzata direttamente, per evitare qualunque rischio di alterazione. Deve essere creata una copia forense bit-a-bit (immagine forense) su supporti write-protected. Nel contesto dei \u00a0deep fake diffusi online, l&#8217;acquisizione presenta sfide aggiuntive: necessit\u00e0 di documentare l&#8217;URL di origine, lo screenshot della pagina web, le informazioni sul server hosting, i log di accesso se disponibili; gestione dei contenuti effimeri su piattaforme social (Stories di Instagram, Snap di Snapchat) che si auto-distruggono dopo un periodo \u00a0predefinito, richiedendo acquisizione rapida; acquisizione di contenuti su piattaforme cifrate end-to-end (Telegram, Signal, WhatsApp) che presentano protezioni tecniche contro l&#8217;estrazione forense.<\/li>\n<\/ul>\n\n\n\n<p>La fase di <strong>Examination<\/strong> costituisce il cuore dell&#8217;analisi forense, in cui vengono applicate tecniche specialistiche per identificare indicatori di manipolazione. Per i deep fake, tale analisi si articola su diversi livelli.<\/p>\n\n\n\n<p>a) Analisi degli artefatti algoritmici specifici delle GAN<\/p>\n\n\n\n<p>I sistemi di deep learning, in particolare le GAN, lasciano tracce caratteristiche nei contenuti generati, definite artefatti algoritmici. Tali artefatti derivano dalle limitazioni intrinseche dell&#8217;architettura e dal processo di addestramento<a href=\"#_ftn5\" id=\"_ftnref5\"><sup>[5]<\/sup><\/a>.<\/p>\n\n\n\n<p>b) Analisi delle inconsistenze fisiche e illuminotecniche<\/p>\n\n\n\n<p>I contenuti manipolati mediante IA spesso presentano violazioni delle leggi fisiche dell&#8217;ottica e dell&#8217;illuminazione che possono essere rilevate mediante analisi computazionale<a href=\"#_ftn6\" id=\"_ftnref6\"><sup>[6]<\/sup><\/a>.<\/p>\n\n\n\n<p>c) Analisi delle anomalie fisiologiche e biomeccaniche<\/p>\n\n\n\n<p>Gli esseri umani presentano pattern comportamentali e fisiologici caratteristici che i sistemi di IA faticano a replicare perfettamente<a href=\"#_ftn7\" id=\"_ftnref7\"><sup>[7]<\/sup><\/a>.<\/p>\n\n\n\n<p>d) Analisi della compressione e dei pattern di manipolazione<a href=\"#_ftn8\" id=\"_ftnref8\"><sup>[8]<\/sup><\/a><\/p>\n\n\n\n<p>e) Analisi mediante reti neurali avversarie per il rilevamento<\/p>\n\n\n\n<p>Paradossalmente, le stesse tecnologie di IA impiegate per creare deep fake vengono utilizzate per rilevarli. Sono stati sviluppati modelli di deep learning specificamente addestrati sul rilevamento di contenuti sintetici<a href=\"#_ftn9\" id=\"_ftnref9\"><sup>[9]<\/sup><\/a>.<\/p>\n\n\n\n<p>Dopo l&#8217;applicazione delle tecniche di examination, la fase di <strong>Analysis<\/strong> consiste nella valutazione complessiva delle evidenze raccolte per formulare conclusioni forensi solide e scientificamente fondate.Ciascuna delle tecniche applicate produce indicatori che devono essere valutati statisticamente. Non \u00e8 sufficiente rilevare anomalie, occorre quantificare la loro significativit\u00e0 statistica. Per esempio se l&#8217;analisi spettrale rileva anomalie nella distribuzione delle frequenze, occorre calcolare la probabilit\u00e0 che tali anomalie si verifichino per caso in un&#8217;immagine autentica; se l&#8217;analisi del blinking rileva frequenze atipiche, occorre confrontarle con la distribuzione statistica del blinking naturale. La valutazione impiega test statistici appropriati (test chi-quadrato, test di Kolmogorov-Smirnov, likelihood ratio tests) per quantificare la significativit\u00e0.<\/p>\n\n\n\n<p>Le conclusioni forensi cos\u00ec ottenute devono essere accompagnate da una stima del grado di confidenza, espressa secondo scale standardizzate. Una formulazione tipica potrebbe essere: &#8220;Con alta confidenza (probabilit\u00e0 superiore al 90%), il video analizzato \u00e8 stato manipolato mediante tecniche di intelligenza artificiale&#8221;. Il grado di confidenza dipende da numero e coerenza degli indicatori rilevati, significativit\u00e0 statistica di ciascun indicatore, robustezza delle tecniche impiegate, qualit\u00e0 dell&#8217;evidenza analizzata.<\/p>\n\n\n\n<p>Una perizia forense solida deve, poi, considerare e discutere spiegazioni alternative alle anomalie rilevate. Ad esempio: anomalie nel PRNU potrebbero derivare non da manipolazione, ma da forti<\/p>\n\n\n\n<p>compressioni successive; anomalie nei pattern di blinking potrebbero derivare da condizioni fisiologiche particolari del soggetto; inconsistenze nell&#8217;illuminazione potrebbero derivare da setup di illuminazione complessi in studio. La perizia deve argomentare perch\u00e9 tali spiegazioni alternative sono implausibili nel caso specifico.<\/p>\n\n\n\n<p>La relazione peritale deve tradurre l&#8217;analisi tecnica complessa in un formato comprensibile per i soggetti processuali non esperti (giudici, avvocati, giurati), mantenendo, allo stesso tempo, grande rigore scientifico. Ci\u00f2 significa che le tecniche impiegate devono essere descritte evitando eccessivo tecnicismo, utilizzando analogie e spiegazioni intuitive ove possibile (invece di descrivere matematicamente la trasformata di Fourier, si pu\u00f2 spiegare che <em>permette di scomporre un&#8217;immagine nelle sue componenti di frequenza, analogamente a come un prisma scompone la luce nei colori dell&#8217;arcobaleno<\/em>).<em>&nbsp; <\/em>La chiarezza \u00e8 richiesta anche quando si devono presentare le evidenze,le visualizzazioni devono essere autoesplicative e corredate di legende comprensibili (immagini side-by-side che evidenziano anomalie, heatmap che mostrano regioni sospette, grafici che illustrano deviazioni statistiche, timeline che ricostruiscono la sequenza di manipolazioni).<\/p>\n\n\n\n<p>Nonostante i progressi metodologici e strumentali descritti, l&#8217;accertamento forense dei deep fake presenta criticit\u00e0 operative significative che impattano sull&#8217;effettivit\u00e0 della tutela penale e sulla certezza del diritto.<\/p>\n\n\n\n<p>Intanto, i laboratori di polizia scientifica italiani dispongono di competenze consolidate nell&#8217;informatica forense tradizionale (analisi di hard disk, recupero dati, analisi di log). Tuttavia, l&#8217;analisi forense dei &nbsp;deep fake richiede competenze ultra-specialistiche che intersecano: machine learning e deep learning (comprensione delle architetture neurali, familiarit\u00e0 con framework come TensorFlow e PyTorch); computer vision avanzata (conoscenza di algoritmi di image processing, facial recognition, object detection); signal processing (analisi nel dominio delle frequenze, elaborazione di segnali audio-video); statistica computazionale (test statistici, analisi bayesiana, stima di confidenza). Tale profilo di competenze \u00e8 raro e richiede formazione lunga e specializzata. Il rischio \u00e8 che molti casi non possano essere adeguatamente analizzati per carenza di personale qualificato, traducendosi in impunit\u00e0 de facto.<\/p>\n\n\n\n<p>Inoltre, esiste una dinamica di adversarial learning tra tecniche di generazione e tecniche di rilevamento. Gli sviluppatori di GAN possono addestrare i loro modelli specificamente per eludere i detector esistenti: tecnica nota come adversarial training, in cui il generatore \u00e8 addestrato non solo a produrre immagini realistiche, ma anche a evitare il rilevamento da parte di specifici detector. Il risultato \u00e8 che, appena viene sviluppato un nuovo detector efficace, emergono GAN capaci di evaderlo. Le ricerche dimostrano tassi di evasion attack superiori al 90% contro detector non specificamente hardened. Questo implica che le metodologie forensi devono essere continuamente aggiornate, richiedendo investimenti costanti in ricerca e sviluppo.<\/p>\n\n\n\n<p>Ancora, si tenga conto che anche le tecniche pi\u00f9 avanzate non garantiscono certezza assoluta. Gli studi sperimentali evidenziano: falsi negativi (deep fake non rilevati) con tassi del 5-20% per deep fake di alta qualit\u00e0; falsi positivi (contenuti autentici classificati erroneamente come deep fake) con tassi del 2-10% a seconda delle soglie di confidenza impiegate. Nel processo penale, che richiede una prova oltre ogni ragionevole dubbio, sar\u00e0 difficile capire quale soglia di confidenza statistica \u00e8 sufficiente e l&#8217;assenza di standard consolidati rischia di generare valutazioni difformi tra diversi giudici e diverse perizie.<\/p>\n\n\n\n<p>Un&#8217;analisi forense completa di un video deep fake, poi, pu\u00f2 richiedere settimane per casi di media complessit\u00e0 (video brevi, qualit\u00e0 standard), mesi per casi complessi (video lunghi, qualit\u00e0 elevata, necessit\u00e0 di analisi cross-referenziate). I costi per consulenze tecniche ultra-specializzate possono raggiungere decine di migliaia di euro per caso. Ci\u00f2 genera problemi di ragionevole durata del processo, disparit\u00e0 di trattamento tra imputati abbienti (che possono permettersi consulenze tecniche di parte sofisticate) e non abbienti ed inefficienze sistemiche con accumulo di arretrati.<\/p>\n\n\n\n<p>Infine, <strong>due aspetti<\/strong> meritano di essere menzionati.<\/p>\n\n\n\n<p>I contenuti digitali presentano peculiarit\u00e0 che complicano la chain of custody: volatilit\u00e0 (facilmente cancellabili, modificabili senza lasciare tracce evidenti); duplicabilit\u00e0 perfetta (impossibile distinguere originale da copia); dipendenza da metadati (che possono essere facilmente alterati); natura distribuita (contenuti hosted su server esteri, giurisdizioni multiple). La dimostrazione dell&#8217;integrit\u00e0 dell&#8217;evidenza digitale richiede procedure rigorose spesso non implementate correttamente nelle fasi iniziali dell&#8217;indagine, quando non vi \u00e8 ancora consapevolezza della rilevanza penale. Il rischio \u00e8 di evidence exclusion per vizi procedurali.<\/p>\n\n\n\n<p>In secondo luogo, i contenuti sulle piattaforme come Instagram Stories, Snapchat, Telegram (detti <em>ephemeral content) <\/em>con il loro messaggi autodistruttivi implementano meccanismi di cancellazione automatica. I deep fake diffusi su tali piattaforme possono scomparire prima che sia stata avviata l&#8217;indagine. Inoltre, gli autori consapevoli possono procedere a cancellazioni massive: mediante scraping automatizzato dei propri post, utilizzo di servizi di anonimizzazione (VPN, Tor) per ostacolare tracciamento, impiego di tecniche anti-forensi (metadati stripping, encryption, steganografia). Ci\u00f2 comporterebbe che in molti casi l&#8217;evidenza digitale potrebbe essere irrecuperabile al momento in cui l&#8217;autorit\u00e0 giudiziaria interviene.<\/p>\n\n\n\n<p><strong>5. La rapidit\u00e0 dell&#8217;obsolescenza tecnologica e l&#8217;adattabilit\u00e0 normativa<\/strong><\/p>\n\n\n\n<p>Come si intuisce da quanto detto finora, lo sviluppo dei sistemi di IA generativa segue una traiettoria di crescita esponenziale che solleva dubbi sulla sostenibilit\u00e0 temporale della disciplina normativa.<strong> La legge 132\/2025<\/strong> codifica una fattispecie modellata sulle tecnologie disponibili nel 2025, ma l&#8217;evoluzione tecnologica potrebbe rendere obsolete le categorie concettuali della norma nel breve-medio periodo.<\/p>\n\n\n\n<p>Le proiezioni per il 2027-2030 suggeriscono che esisteranno deep fake perfetti indistinguibili dalla realt\u00e0 anche per detector specializzati, avremo una democratizzazione completa della tecnologia con strumenti accessibili a chiunque mediante smartphone, si far\u00e0 sintesi in tempo reale durante videoconferenze, vi sar\u00e0 integrazione con realt\u00e0 aumentata e virtuale. In tale scenario, l&#8217;elemento costitutivo del reato (impiego di sistemi di IA) potrebbe divenire impossibile da provare processualmente, rendendo la fattispecie sostanzialmente inapplicabile.<\/p>\n\n\n\n<p>Dinanzi alla rapidit\u00e0 dell&#8217;evoluzione tecnologica e alla limitatezza della tecnica legislativa tradizionale, si propongono approcci alternativi.<\/p>\n\n\n\n<p>Risulterebbe opportuno formulare norme che rinviino a parametri tecnici elaborati da autorit\u00e0 specializzate (AgID, Agenzia per la Cybersicurezza Nazionale, enti di standardizzazione internazionali come ISO), aggiornabili mediante atti amministrativi senza necessit\u00e0 di intervento legislativo. Per\u00f2, sebbene si potrebbe guadagnare in flessibilit\u00e0 ed aggiornabilit\u00e0 rapida, potrebbero esserci tensioni con il principio di riserva di legge in materia penale (necessit\u00e0 di garantire pubblicit\u00e0 e conoscibilit\u00e0 degli standard tecnici).<\/p>\n\n\n\n<p>In secondo luogo, si potrebbero prevedere <strong><em>sunset clauses<\/em><\/strong> che impongano al legislatore di rivedere periodicamente (es. ogni 3 anni) la disciplina alla luce dell&#8217;evoluzione tecnologica, con eventuale decadenza automatica in assenza di aggiornamento. Questo assicurerebbe che la normativa non diventi obsoleta per inerzia legislativa.<\/p>\n\n\n\n<p>In modo pi\u00f9 generico, si potrebbero formulare norme che sanzionino il risultato lesivo (diffusione di contenuti manipolati idonei a ingannare) indipendentemente dalla specifica tecnologia impiegata,<\/p>\n\n\n\n<p>&nbsp;evitando riferimenti a categorie tecnologiche destinate a obsolescenza. Ci\u00f2 richiederebbe, per\u00f2, meccanismi per delimitare l&#8217;ambito di applicazione ed evitare indeterminatezza.<\/p>\n\n\n\n<p>Il modello attualmente adottato dalla legge 132\/2025 (che prevede decreti attuativi da adottare entro 12 mesi) rappresenta un passo verso maggiore adattabilit\u00e0, ma potrebbe risultare insufficiente per tutti i motivi esposti.<\/p>\n\n\n\n<p><strong>6. Considerazioni conclusive<\/strong><\/p>\n\n\n\n<p>L&#8217;introduzione dell&#8217;art. 612-quater c.p. segna una cesura paradigmatica nel rapporto tra ordinamento penale e tecnologie algoritmiche generative, ponendo sul banco di prova la tenuta epistemologica delle categorie dogmatiche tradizionali dinanzi all&#8217;irruzione di artefatti computazionali dotati di autonomia operativa e capacit\u00e0 sintetica. Tuttavia, l&#8217;indagine condotta rivela come tale intervento normativo manifesti aporie strutturali che trascendono la mera tecnica di formulazione legislativa, investendo piuttosto la stessa ontologia giuridica del fatto tecnologicamente mediato.<\/p>\n\n\n\n<p>Sul piano della tassativit\u00e0 tecnico-normativa, la fattispecie sconta un&#8217;indeterminatezza che non attiene alla dimensione semantico-linguistica del precetto, quanto alla sua sostanza epistemologica: il concetto di &#8220;sistema di intelligenza artificiale&#8221; \u2013 lungi dal configurare una nozione descrittiva di contorni definiti \u2013 si atteggia quale categoria fluida e porosa, irriducibile a parametri tecnici univoci e stabili. Siffatta evanescenza concettuale non costituisce mera imperfezione redazionale emendabile mediante l&#8217;intervento ermeneutico della giurisprudenza o della dottrina, ma riflette una frattura pi\u00f9 profonda tra il ritmo incrementale dell&#8217;innovazione tecnologica e la vocazione stabilizzatrice del diritto penale.<\/p>\n\n\n\n<p>La lacuna non pu\u00f2 essere colmata mediante l&#8217;affinamento interpretativo; essa esige, al contrario, una riformulazione normativa che ancori la fattispecie a criteri operativi verificabili, capaci di segnare demarcazioni nette tra condotte penalmente rilevanti e lecite manipolazioni digitali.<\/p>\n\n\n\n<p>Sul versante dell&#8217;accertamento forense digitale, l&#8217;analisi ha evidenziato come le metodologie investigative disponibili \u2013 per quanto tecnicamente raffinate \u2013 scontino deficit di affidabilit\u00e0 epistemica e asimmetrie applicative che ne minano la sostenibilit\u00e0 processuale. La digital forensics applicata ai contenuti sintetici generati mediante architetture neurali profonde si configura quale disciplina ancora in fase di consolidamento scientifico, priva di protocolli standardizzati, di <em>threshold<\/em> di confidenza condivisi dalla comunit\u00e0 scientifica, di validazione inter-laboratorio. L&#8217;accertamento giudiziale dell&#8217;elemento costitutivo del reato \u2013 l&#8217;impiego di sistemi di IA \u2013 risulta, cos\u00ec, subordinato alla contingente disponibilit\u00e0 di competenze ultra-specialistiche e di infrastrutture computazionali avanzate, generando il paradosso per cui l&#8217;an della punibilit\u00e0 dipende de facto dalle asimmetrie di risorse tra diversi uffici giudiziari, con evidenti ricadute sul principio di uguaglianza sostanziale nella giurisdizione penale.<\/p>\n\n\n\n<p>Quanto alla dimensione diacronica dell&#8217;efficacia normativa, emerge un&#8217;aporia sistemica di pi\u00f9 ampia portata: il diritto penale, ancorato a paradigmi epistemologici che postulano la stabilit\u00e0 e la predicibilit\u00e0 delle fattispecie incriminatrici, rivela una costitutiva inadeguatezza a governare fenomeni tecnologici caratterizzati da evoluzione esponenziale e discontinuit\u00e0 paradigmatiche. La fattispecie ex art. 612-quater c.p., calibrata sullo stato dell&#8217;arte tecnologico del 2025, rischia l&#8217;obsolescenza precoce gi\u00e0 nel breve-medio periodo, allorch\u00e9 l&#8217;avanzamento delle architetture generative render\u00e0 i contenuti sintetici forensicamente indistinguibili dalla realt\u00e0 empirica, vanificando l&#8217;accertabilit\u00e0 processuale dell&#8217;elemento normativo.<\/p>\n\n\n\n<p>Di fronte a tali criticit\u00e0 costitutive, si impone una riconfigurazione metodologica dell&#8217;approccio regolatorio alle tecnologie algoritmiche emergenti. Ci\u00f2 postula, in prima istanza, l&#8217;instaurazione di un dialogo interdisciplinare autentico e paritario tra penalisti, informatici teorici, esperti di machine learning e data scientists, finalizzato alla co-costruzione di definizioni tecniche che siano al contempo rigorose sul piano scientifico e operazionali sul piano giuridico. Non \u00e8 sufficiente il mero recepimento<\/p>\n\n\n\n<p>acritico di nozioni elaborate in contesti regolatori extra-penali, occorre, invece, una ridefinizione concettuale che tenga conto delle specificit\u00e0 garantiste proprie del diritto punitivo e delle esigenze di tassativit\u00e0 che ne conformano la legittimazione costituzionale.<\/p>\n\n\n\n<p>In secondo luogo, si rende indifferibile un investimento strategico nella <strong>formazione di personale giudiziario<\/strong> e <strong>investigativo<\/strong> dotato di competenze tecnico-forensi avanzate. La risposta istituzionale non pu\u00f2 limitarsi alla consulenza tecnica occasionale, ma deve strutturarsi mediante: l&#8217;istituzione di corsi di alta formazione permanente in digital forensics applicata ai contenuti IA-generated per magistrati inquirenti e giudicanti; la creazione di laboratori forensi ultra-specializzati presso le Procure generali, dotati di infrastrutture computazionali e personale tecnico-scientifico stabilmente dedicato; l&#8217;elaborazione e validazione di protocolli metodologici certificati secondo standard internazionali; l&#8217;implementazione di meccanismi di quality assurance e peer review per le perizie tecniche, sul modello delle best practices consolidate nelle scienze forensi tradizionali.<\/p>\n\n\n\n<p>Sul piano della <strong>tecnica legislativa<\/strong>, si palesa l&#8217;esigenza di sperimentare meccanismi normativi adattivi che consentano l&#8217;aggiornamento dinamico della disciplina penale senza compromettere la certezza del diritto. Il modello delle deleghe legislative ex art. 76 Cost., per quanto apprezzabile, si rivela insufficiente. Forse servirebbe articolare un sistema ibrido che integri la costituzione di osservatori tecnico-scientifici permanenti, composti pariteticamente da giuristi e tecnologi, con mandato di monitoraggio continuo dell&#8217;evoluzione tecnologica e delle sue implicazioni giuridiche; l&#8217;introduzione di clausole di revisione obbligatoria a scadenze predeterminate (sunset clauses) che impongano al legislatore la riconsiderazione periodica della disciplina alla luce del mutato contesto tecnologico; il ricorso a rinvii normativi dinamici a standard tecnici elaborati da autorit\u00e0 indipendenti (AgID, ACN), aggiornabili mediante atti regolamentari secondo procedure semplificate ma garantite; il coordinamento sistematico con le istituzioni europee e gli organismi internazionali di standardizzazione, onde assicurare l&#8217;armonizzazione delle definizioni tecniche e l&#8217;interoperabilit\u00e0 giurisdizionale.<\/p>\n\n\n\n<p>Infine \u2013 e qui si annida forse la questione pi\u00f9 radicale \u2013 urge riconsiderare ab imis l&#8217;approccio stesso alla tutela penale nel dominio delle tecnologie algoritmiche. La proliferazione di fattispecie incriminatrici ad hoc, ancorate a specifiche modalit\u00e0 tecnologiche destinate a rapida obsolescenza, genera un diritto penale frammentario e instabile, incapace di assicurare orientamento ex ante ai consociati. Potrebbe rivelarsi pi\u00f9 efficace e garantista l&#8217;elaborazione di fattispecie &#8220;aperte&#8221; orientate al risultato lesivo \u2013 l&#8217;offesa dell&#8217;autodeterminazione informativa, la manipolazione fraudolenta del consenso, la lesione dell&#8217;integrit\u00e0 cognitiva \u2013 anzich\u00e8 alla modalit\u00e0 tecnica di realizzazione. Tale approccio andrebbe coniugato con meccanismi di tutela anticipata e preventiva, operanti a monte della catena produttiva: obblighi di due diligence tecnologica per sviluppatori e distributori di sistemi di IA ad alto rischio; forme di responsabilit\u00e0 oggettiva attenuata (strict liability) per chi immette sul mercato tecnologie dual-use facilmente strumentalizzabili a fini illeciti; sistemi di certificazione ex ante e tracciabilit\u00e0 crittografica dei contenuti digitali, mediante blockchain permissioned o protocolli di content authentication che consentano la verificabilit\u00e0 della provenienza e dell&#8217;integrit\u00e0 dei contenuti multimediali sin dal momento della loro generazione.<\/p>\n\n\n\n<p>In definitiva, l&#8217;art. 612-quater c.p. costituisce un primo tentativo \u2013 meritorio nelle intenzioni, ma ancora embrionale nell&#8217;articolazione tecnica \u2013 di presidiare penalmente i rischi derivanti dall&#8217;IA generativa. La vera sfida per l&#8217;informatico giuridico oggi consiste nella rifondazione epistemologica dell&#8217;approccio regolatorio; dallo <em>ius conditum<\/em>, ancorato a tipizzazioni rigide e statiche, verso uno <em>ius condendum<\/em> caratterizzato da plasticit\u00e0 adattativa, apertura interdisciplinare e capacit\u00e0 di autoregolazione dinamica. Solo mediante tale mutamento paradigmatico \u2013 che postula un ripensamento profondo del rapporto tra norma penale e realt\u00e0 tecnologica \u2013 sar\u00e0 possibile elaborare un sistema di tutela penale al contempo efficace nella prevenzione delle condotte lesive e rispettoso delle garanzie costituzionali che fondano la legittimazione democratica dello <em>ius puniendi<\/em> nell&#8217;ordinamento liberal-democratico.<\/p>\n\n\n\n<p class=\"is-style-info\">Di <strong>Enrica Priolo<\/strong><br><em>Borsista di ricerca in SSD GIUR-17\/A presso l\u2019Universit\u00e0 degli Studi di Cagliari, Dipartimento di Ingegneria Elettrica ed Elettronica (DIEE).<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p>[1] Sul nesso tra autodeterminazione informativa e tutela dell&#8217;immagine digitale, PIZZETTI, <em>Privacy e il diritto europeo alla protezione dei dati personali<\/em>, Torino, 2016, vol. I; RODOT\u00c0, <em>Il mondo nella rete. Quali i diritti, quali i vincoli<\/em>, Bari, 2014.<\/p>\n\n\n\n<p><a href=\"#_ftnref2\" id=\"_ftn2\">[2]<\/a> Sulla distinzione tra manipolazione di dati esistenti e generazione sintetica ex novo, HILDEBRANDT, <em>Law for Computer Scientists and Other Folk<\/em>, Oxford, 2020.<\/p>\n\n\n\n<p><a href=\"#_ftnref3\" id=\"_ftn3\">[3]<\/a> PICOTTI, <em>I contenuti penali della legge sull\u2019intelligenza artificiale<\/em>, in Sistema Penale, pubblicato il 2 dicembre 2025, p. 4.<\/p>\n\n\n\n<p><a href=\"#_ftnref4\" id=\"_ftn4\">[4]<\/a> PICOTTI, cit., p. 7.<\/p>\n\n\n\n<p><a href=\"#_ftnref5\" id=\"_ftn5\">[5]<\/a> <em>Pattern nella distribuzione spettrale. <\/em>Le immagini naturali presentano una distribuzione caratteristica delle frequenze: le componenti a bassa frequenza (variazioni graduali di colore e luminosit\u00e0) sono predominanti, mentre le componenti ad alta frequenza (dettagli fini, bordi netti) decrescono secondo una legge di potenza predicibile. Le immagini generate mediante GAN spesso deviano da tale distribuzione, presentano eccesso di energia in specifiche bande di frequenza, mostrando pattern periodici anomali rilevabili mediante trasformata di Fourier bidimensionale; mostrano discontinuit\u00e0 nella distribuzione spettrale tra diverse regioni dell&#8217;immagine. L&#8217;analisi spettrale si effettua mediante: conversione dell&#8217;immagine nel dominio delle frequenze mediante FFT 2D, calcolo dello spettro di potenza radiale, confronto con modelli statistici di immagini naturali, identificazione di anomalie mediante test statistici. <em>Artefatti nei pattern di rumore ad alta frequenza. <\/em>Le fotocamere digitali introducono pattern di rumore caratteristici derivanti dalle imperfezioni del sensore e dell&#8217;elettronica di acquisizione. Tale rumore presenta propriet\u00e0 statistiche specifiche: distribuzione gaussiana, correlazione spaziale limitata, dipendenza dall&#8217;ISO e dalle condizioni di illuminazione. Le GAN tendono a produrre pattern di rumore differenti: rumore eccessivamente uniforme o, viceversa, con variazioni anomale; correlazioni spaziali inusuali; assenza del Pattern Response Non-Uniformity tipico dei sensori reali. L&#8217;analisi del rumore si effettua mediante: estrazione del rumore mediante filtering passa-alto, analisi statistica delle propriet\u00e0 del rumore (media, varianza, curtosi, asimmetria), confronto con modelli di rumore di sensori reali, ricerca di pattern periodici o correlazioni anomale. <em>GAN<\/em><em> <\/em><em>fingerprinting. <\/em>Ricerche recenti hanno dimostrato che diverse architetture GAN lasciano &#8220;impronte digitali&#8221; distintive nei contenuti generati. Ogni modello GAN specifico (StyleGAN, StyleGAN2, ProGAN) produce artefatti caratteristici nei pattern di upsampling, nelle modalit\u00e0 di generazione delle texture, nelle propriet\u00e0 statistiche degli strati latenti. Mediante tecniche di GAN fingerprinting \u00e8 possibile non solo identificare che un contenuto \u00e8 stato generato mediante GAN, ma anche determinare quale architettura specifica \u00e8 stata impiegata, e in alcuni casi persino identificare il modello pre-addestrato specifico utilizzato.<\/p>\n\n\n\n<p><a href=\"#_ftnref6\" id=\"_ftn6\">[6]<\/a> <em>Analisi fotometrica della coerenza dell&#8217;illuminazione. <\/em>In una scena reale, tutte le superfici sono illuminate dalle stesse sorgenti luminose, producendo ombre e highlights coerenti. I &nbsp;deep fake spesso violano tale coerenza: volti face-swapped possono presentare direzioni di illuminazione incompatibili con il resto della scena; le ombre proiettate possono essere incoerenti con la posizione apparente delle sorgenti luminose; i riflessi speculari (negli occhi, su superfici lucide) possono mancare o essere fisicamente impossibili. L&#8217;analisi si effettua mediante: stima computazionale della direzione della sorgente luminosa per diverse regioni dell&#8217;immagine mediante inversione del modello di illuminazione lambertiana; verifica della consistenza delle direzioni stimate; analisi dei riflessi speculari mediante tecniche di specular decomposition; simulazione fisica delle ombre e confronto con quelle osservate. <em>Analisi dei riflessi negli occhi. <\/em>Gli occhi umani agiscono come sfere riflettenti che catturano l&#8217;immagine dell&#8217;ambiente circostante. In un video autentico, i riflessi negli occhi devono essere coerenti con l&#8217;ambiente visibile nel frame, devono cambiare dinamicamente quando il soggetto muove lo sguardo o la testa, devono presentare le corrette propriet\u00e0 geometriche di riflessione speculare su superficie sferica. I &nbsp;deep fake spesso falliscono nel replicare correttamente tali riflessi: i riflessi possono essere assenti, statici quando dovrebbero cambiare, geometricamente impossibili, inconsistenti tra occhio destro e sinistro. L&#8217;analisi si effettua mediante: estrazione computazionale delle regioni oculari, enhancement dei riflessi corneali, analisi della coerenza temporale nei video, confronto con modelli fisici di riflessione su superfici sferiche.<\/p>\n\n\n\n<p><a href=\"#_ftnref7\" id=\"_ftn7\">[7]<\/a> <em>Blinking pattern analysis. <\/em>L&#8217;ammiccamento palpebrale umano segue pattern statistici ben caratterizzati: frequenza media di 15-20 ammiccamenti al minuto in condizioni normali, durata tipica di 100-400 millisecondi, distribuzione temporale che segue processi stocastici specifici (processo di Poisson modulato). I primi &nbsp;deep fake mostravano assenza quasi totale di ammiccamento, problema ora parzialmente risolto ma che lascia comunque anomalie rilevabili: frequenza anomala, durata atipica, pattern temporali non naturali, asimmetrie tra occhio destro e sinistro. L&#8217;analisi si effettua mediante: tracking automatico delle palpebre frame-by-frame mediante facial landmark detection, estrazione della serie temporale degli eventi di ammiccamento, analisi statistica della distribuzione temporale, confronto con modelli di blinking umano naturale. <em>Analisi della sincronizzazione audio-visiva. <\/em>Nel parlato umano naturale, esiste una sincronizzazione precisa tra il segnale audio (fonetica) e il movimento delle labbra (visemes). I &nbsp;deep fake che manipolano il parlato spesso presentano: disallineamenti temporali micrometrici tra audio e movimento labiale, movimenti labiali che non corrispondono esattamente ai fonemi pronunciati, mancanza dei movimenti preparatori che precedono l&#8217;articolazione di specifici fonemi, anomalie nei movimenti della mascella e della lingua visibili in video ad alta risoluzione. L&#8217;analisi si effettua mediante: estrazione dei landmark facciali relativi a bocca e labbra, estrazione delle caratteristiche acustiche del segnale audio (MFCC, spectrogrammi), analisi cross-modale della sincronizzazione mediante tecniche di correlazione, confronto con modelli di sincronizzazione audio-visiva derivati da dataset di parlato naturale.<\/p>\n\n\n\n<p><a href=\"#_ftnref8\" id=\"_ftn8\">[8]<\/a> <em>Analisi del Photo Response Non-Uniformity (PRNU). <\/em>Ogni sensore fotografico digitale presenta imperfezioni di fabbricazione uniche che introducono un pattern di rumore caratteristico, il PRNU, che agisce come una &#8220;impronta digitale&#8221; del dispositivo. Quando un&#8217;immagine \u00e8 acquisita da un sensore reale, tale pattern \u00e8 presente in modo coerente su tutta l&#8217;immagine. Quando un&#8217;immagine \u00e8 manipolata o sintetizzata: il PRNU pu\u00f2 essere assente nelle regioni sintetiche, pu\u00f2 presentare discontinuit\u00e0 tra regioni autentiche e manipolate, pu\u00f2 mostrare inconsistenze statistiche. L&#8217;analisi PRNU si effettua mediante: estrazione del pattern di rumore dell&#8217;immagine mediante filtering avanzato, confronto con il PRNU di riferimento del presunto dispositivo di acquisizione se disponibile, analisi delle discontinuit\u00e0 spaziali nel PRNU che indicano manipolazioni localizzate, test statistici di correlazione per verificare la presenza del PRNU atteso. <em>Error Level Analysis (ELA). <\/em>Le immagini digitali sono tipicamente compresse mediante algoritmi lossy come JPEG. Ogni ciclo di compressione\/decompressione introduce artefatti specifici. Quando un&#8217;immagine \u00e8 manipolata localmente, le regioni modificate presentano livelli di compressione differenti rispetto alle regioni originali, creando discontinuit\u00e0 rilevabili. L&#8217;ELA opera mediante: ricompressione dell&#8217;immagine a un livello di qualit\u00e0 noto, calcolo della differenza tra immagine originale e ricompressa, visualizzazione della differenza come heatmap dove regioni con error level alto indicano possibili manipolazioni. Tale tecnica \u00e8 particolarmente efficace per identificare manipolazioni grossolane, ma pu\u00f2 produrre falsi positivi su immagini con contenuto eterogeneo.<\/p>\n\n\n\n<p><a href=\"#_ftnref9\" id=\"_ftn9\">[9]<\/a> <em>XceptionNet e architetture derivate. <\/em>XceptionNet \u00e8 una rete convoluzionale profonda che impiega depthwise separable convolutions per estrarre feature discriminative. Addestrata su vasti dataset di deep fake annotati (come FaceForensics++, che contiene oltre 1.8 milioni di frame manipolati con diverse tecniche), XceptionNet raggiunge accuratezze superiori al 95% nel rilevamento di deep fake di qualit\u00e0 media. Tuttavia, le performance degradano significativamente su deep fake di alta qualit\u00e0 o su architetture non presenti nel training set. Varianti migliorate includono: EfficientNet-B4, che bilancia accuratezza e efficienza computazionale; Capsule Networks, che apprendono relazioni gerarchiche nelle feature facciali risultando pi\u00f9 robuste a variazioni; ensemble di modelli multipli, che combinano le predizioni di diversi detector per aumentare robustezza e accuratezza. <em>Transformer multimodali. <\/em>Per i deep fake video con componente audio manipolata, sono stati sviluppati modelli che analizzano congiuntamente: il dominio visivo (frame video), il dominio audio (segnale acustico), la sincronizzazione cross-modale tra i due. Tali modelli, basati su architetture Transformer che permettono l&#8217;attenzione cross-modale, sono particolarmente efficaci nell&#8217;identificare inconsistenze di sincronizzazione audio-video che sfuggono all&#8217;analisi separata dei singoli domini.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L&#8217;art. 26 della Legge 23 settembre 2025, n. 132 ha introdotto nel codice penale l&#8217;art. 612-quater, rubricato &#8220;Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale&#8221;. La fattispecie incriminatrice sanziona con la reclusione [&hellip;]<\/p>\n","protected":false},"author":10431,"featured_media":1137,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","footnotes":""},"categories":[1],"tags":[9,13,8,12],"class_list":["post-1134","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news-ed-eventi","tag-ai","tag-artificial-intelligence","tag-ia","tag-intelligenza_artificiale"],"_links":{"self":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1134","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/users\/10431"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/comments?post=1134"}],"version-history":[{"count":10,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1134\/revisions"}],"predecessor-version":[{"id":1150,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1134\/revisions\/1150"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media\/1137"}],"wp:attachment":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media?parent=1134"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/categories?post=1134"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/tags?post=1134"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}