{"id":1103,"date":"2025-10-08T17:37:01","date_gmt":"2025-10-08T15:37:01","guid":{"rendered":"https:\/\/sites.unica.it\/ict4lawforensics\/?p=1103"},"modified":"2025-10-08T17:37:28","modified_gmt":"2025-10-08T15:37:28","slug":"approvata-la-legge-italiana-sullia-verso-un-primato-europeo","status":"publish","type":"post","link":"https:\/\/sites.unica.it\/ict4lawforensics\/2025\/10\/08\/approvata-la-legge-italiana-sullia-verso-un-primato-europeo\/","title":{"rendered":"Approvata la legge italiana sull&#8217;IA. Verso un primato europeo?"},"content":{"rendered":"\n<p>Il disegno di legge n. 1146\/2024, approvato definitivamente dal Senato della Repubblica il 17 settembre 2025, \u00e8 stato pubblicato in Gazzetta Ufficiale il 23 settembre come legge n. 132 ed entrer\u00e0 in vigore il 10 ottobre.<\/p>\n\n\n\n<p>Rappresenta il primo intervento organico del legislatore italiano nella disciplina dell&#8217;intelligenza artificiale. L\u2019Italia \u00e8 il primo Stato membro ad aver completato l&#8217;iter legislativo per una legge quadro nazionale organica sull&#8217;IA dopo l&#8217;entrata in vigore dell&#8217;AI Act, creando un modello normativo che altri Stati membri potrebbero seguire nell&#8217;implementazione delle disposizioni europee.<\/p>\n\n\n\n<p>L&#8217;analisi del presente contributo si concentra sulla struttura normativa, sui principi fondanti e sulle scelte di governance adottate dal legislatore italiano e indaga, in chiave critica, la capacit\u00e0 della novella di rispondere alla chiamata europea sul campo della vera innovazione.<\/p>\n\n\n\n<p>In questo senso, la tecnica legislativa adottata merita particolare attenzione: il legislatore ha optato per un sistema misto di norme immediatamente precettive e ampie deleghe al Governo, con termine di dodici mesi per l&#8217;adozione dei decreti attuativi. Tale scelta, se da un lato, riflette la complessit\u00e0 della materia e la necessit\u00e0 di garantire flessibilit\u00e0 normativa in un settore caratterizzato da rapida evoluzione tecnologica, dall\u2019altro preoccupa per diversi motivi, tutti relativi alla tenuta democratica del Paese.<\/p>\n\n\n\n<p>Si proceder\u00e0 dapprima ad analizzare ora i singoli Capi ed articoli, per poi soffermarsi sul drafting legislativo e sugli aspetti critici rilevati; la legge n. 132 si compone di 28 articoli distribuiti su sei Capi, riassumibili in tre aree di intervento:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>principi generali (artt. 1-6) in cui si stabiliscono finalit\u00e0, ambito di applicazione e i principi fondamentali come trasparenza, sicurezza e protezione dei dati, in coerenza con l&#8217;AI Act europeo.<\/li>\n\n\n\n<li>disposizioni settoriali (artt. 7-18) che regolamentano l&#8217;uso dell&#8217;IA in ambiti specifici quali sanit\u00e0, lavoro, professioni intellettuali, pubblica amministrazione e giustizia.<\/li>\n\n\n\n<li>strategia nazionale e governance (artt. 19-28) in cui si definiscono gli obiettivi strategici, si istituiscono le autorit\u00e0 nazionali competenti per l&#8217;IA e si prevedono misure di sostegno economico per il settore.<\/li>\n<\/ul>\n\n\n\n<p><strong>CAPO I &#8211; PRINCIPI E FINALIT\u00c0 (Articoli 1-6)<\/strong><\/p>\n\n\n\n<p><strong>Articolo 1 &#8211; Finalit\u00e0 e ambito di applicazione<\/strong><strong><\/strong><\/p>\n\n\n\n<p>Il legislatore delinea nell&#8217;articolo di apertura la cornice teleologica dell&#8217;intervento normativo, articolando tre obiettivi fondamentali: la promozione di un utilizzo &#8220;corretto, trasparente e responsabile&#8221; dell&#8217;IA, la valorizzazione delle opportunit\u00e0 tecnologiche e la vigilanza sui rischi per i diritti fondamentali. Il comma 2 stabilisce il principio di conformit\u00e0 interpretativa con il diritto dell&#8217;Unione europea, configurando un rapporto di complementariet\u00e0 normativa, anzich\u00e8 di mera trasposizione.<\/p>\n\n\n\n<p>L&#8217;espressione &#8220;dimensione antropocentrica&#8221; introduce un elemento qualificante che permea l&#8217;intero impianto normativo, ponendo l&#8217;essere umano come parametro di riferimento valoriale per lo sviluppo tecnologico e, quindi, in totale accordo di vedute sul tema con l\u2019AI Act.<\/p>\n\n\n\n<p><strong>Articolo 2 &#8211; Definizioni<\/strong><strong><\/strong><\/p>\n\n\n\n<p>La tecnica definitoria adottata si caratterizza per il rinvio formale alle definizioni contenute nel Regolamento UE 2024\/1689. Il legislatore ha optato per una trasposizione testuale delle definizioni chiave, come, ad esempio:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>sistema di intelligenza artificiale: la definizione riprende integralmente l&#8217;articolo 3, punto 1, dell&#8217;AI Act, incentrandosi sui concetti di autonomia variabile e capacit\u00e0 inferenziale<\/li>\n\n\n\n<li>dato: definizione onnicomprensiva che abbraccia qualsiasi rappresentazione digitale di informazioni<\/li>\n\n\n\n<li>modelli di intelligenza artificiale: definizione funzionale che enfatizza la capacit\u00e0 di identificazione di strutture ricorrenti e la versatilit\u00e0 applicativa<\/li>\n<\/ul>\n\n\n\n<p>Tale scelta garantisce uniformit\u00e0 terminologica nel contesto europeo, evitando divergenze interpretative che potrebbero compromettere l&#8217;armonizzazione normativa.<\/p>\n\n\n\n<p><strong>Articolo 3 &#8211; Principi generali<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo enuncia un catalogo di principi sostanziali che costituiscono il substrato assiologico della disciplina. Il comma 1 elenca i principi cardine: trasparenza, proporzionalit\u00e0, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parit\u00e0 dei sessi e sostenibilit\u00e0.<\/p>\n\n\n\n<p>Il comma 2 introduce requisiti qualitativi per i dati e i processi di sviluppo, mentre il comma 3 stabilisce principi operativi specifici: autonomia decisionale umana, prevenzione del danno, conoscibilit\u00e0 e spiegabilit\u00e0.<\/p>\n\n\n\n<p>Particolare rilievo assume il comma 4, che introduce una tutela specifica del processo democratico, vietando utilizzi dell&#8217;IA che possano pregiudicare &#8220;lo svolgimento con metodo democratico della vita istituzionale e politica&#8221;. Il comma 5 pone la cybersicurezza come &#8220;precondizione essenziale&#8221;, richiedendo un approccio proporzionale basato sul rischio. Il comma 6 garantisce l&#8217;accessibilit\u00e0 alle persone con disabilit\u00e0, richiamando la Convenzione ONU del 2006.<\/p>\n\n\n\n<p><strong>Articolo 4 &#8211; Principi in materia di informazione e riservatezza dei dati personali<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo declina i principi generali nel contesto informativo e del trattamento dati. Il comma 1 tutela il pluralismo informativo e la libert\u00e0 di espressione. Il comma 2 ribadisce i principi del GDPR in materia di liceit\u00e0, correttezza e trasparenza del trattamento.<\/p>\n\n\n\n<p>Il comma 3 introduce l&#8217;obbligo di utilizzare &#8220;linguaggio chiaro e semplice&#8221; nelle comunicazioni relative al trattamento dati. Il comma 4 disciplina il consenso per i minori, differenziando tra infraquattordicenni (consenso genitoriale necessario) e minori tra 14 e 18 anni (consenso autonomo per il trattamento dati).<\/p>\n\n\n\n<p><strong>Articolo 5 &#8211; Principi in materia di sviluppo economico<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo configura il ruolo promozionale dello Stato nello sviluppo dell&#8217;IA. La lettera a) identifica l&#8217;IA come strumento per migliorare l&#8217;interazione uomo-macchina e la competitivit\u00e0 del sistema economico nazionale. La lettera b) promuove mercati innovativi e concorrenziali. La lettera c) facilita l&#8217;accesso a dati di qualit\u00e0. La lettera d) introduce criteri preferenziali per il procurement pubblico, privilegiando soluzioni con localizzazione nazionale dei data center e trasparenza nell&#8217;addestramento dei modelli, nel rispetto della normativa sulla concorrenza.<\/p>\n\n\n\n<p><strong>Articolo 6 &#8211; Disposizioni in materia di sicurezza e difesa nazionale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo delimita il perimetro applicativo della legge, escludendo le attivit\u00e0 degli organismi di intelligence (DIS, AISE, AISI) e dell&#8217;Agenzia per la cybersicurezza nazionale quando operano per finalit\u00e0 di sicurezza nazionale, nonch\u00e9 le attivit\u00e0 delle Forze armate per scopi di difesa.<\/p>\n\n\n\n<p>Il comma 2 mantiene, comunque, l&#8217;applicabilit\u00e0 delle garanzie costituzionali e delle tutele specifiche previste per il trattamento dati da parte di tali organismi. Il comma 3 demanda a regolamenti attuativi la definizione delle modalit\u00e0 applicative per tali ambiti sensibili.<\/p>\n\n\n\n<p><strong>CAPO II &#8211; DISPOSIZIONI DI SETTORE (Articoli 7-16)<\/strong><strong><\/strong><\/p>\n\n\n\n<p><strong>Articolo 7 &#8211; Uso dell&#8217;intelligenza artificiale in ambito sanitario e di disabilit\u00e0<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo stabilisce una cornice normativa per l&#8217;utilizzo dell&#8217;IA in sanit\u00e0, bilanciando innovazione e tutela dei diritti. Il comma 2 vieta discriminazioni nell&#8217;accesso alle prestazioni sanitarie basate su criteri algoritmici. Il comma 3 garantisce il diritto all&#8217;informazione sull&#8217;uso di IA e sulla logica decisionale utilizzata.<\/p>\n\n\n\n<p>Il comma 4 promuove lo sviluppo di sistemi di IA per migliorare le condizioni di vita delle persone con disabilit\u00e0. Il comma 5 configura l&#8217;IA come strumento di &#8220;supporto&#8221; lasciando &#8220;impregiudicata la decisione&#8221; del medico, cristallizzando il principio della centralit\u00e0 del giudizio clinico umano. Il comma 6 richiede affidabilit\u00e0 e aggiornamento periodico dei sistemi utilizzati.<\/p>\n\n\n\n<p><strong>Articolo 8 &#8211; Ricerca e sperimentazione scientifica in ambito sanitario<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo introduce un regime speciale per i trattamenti dati nella ricerca scientifica sanitaria. Il comma 1 dichiara di &#8220;rilevante interesse pubblico&#8221; tali trattamenti quando finalizzati a prevenzione, diagnosi, cura, sviluppo farmaceutico e tecnologie medicali.<\/p>\n\n\n\n<p>Il comma 2 autorizza l&#8217;uso secondario di dati pseudonimizzati con sola informativa generale, eliminando l&#8217;obbligo di consenso specifico (questa \u00e8 una delle disposizioni pi\u00f9 rilevanti). Il comma 3 prevede un doppio livello di controllo: approvazione dei comitati etici e comunicazione al Garante PDP con silenzio-assenso dopo 30 giorni. Il comma 4 preserva i poteri di intervento del Garante.<\/p>\n\n\n\n<p><strong>Articolo 10 &#8211; Fascicolo sanitario elettronico e governo della sanit\u00e0 digitale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo inserisce nel D.L. 179\/2012 il nuovo articolo 12-bis che disciplina l&#8217;uso dell&#8217;IA nel settore sanitario. Viene istituita una piattaforma di IA presso AGENAS per supporto ai professionisti sanitari, ai medici nella pratica clinica e agli utenti per l&#8217;accesso ai servizi delle Case della comunit\u00e0.<\/p>\n\n\n\n<p>La piattaforma opera secondo il principio di minimizzazione dei dati e richiede pareri preventivi del Ministero della Salute, del Garante PDP e dell&#8217;ACN.&nbsp;<\/p>\n\n\n\n<p><strong>Articolo 11 &#8211; Disposizioni sull&#8217;uso dell&#8217;intelligenza artificiale in materia di lavoro<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo stabilisce le finalit\u00e0 dell&#8217;uso dell&#8217;IA in ambito lavorativo: miglioramento delle condizioni di lavoro, tutela dell&#8217;integrit\u00e0 psico-fisica, accrescimento della qualit\u00e0 e produttivit\u00e0. Il comma 2 richiede che l&#8217;utilizzo sia &#8220;sicuro, affidabile, trasparente&#8221; e rispetti la dignit\u00e0 umana, con obbligo informativo secondo le modalit\u00e0 del D.lgs. 152\/1997.<\/p>\n\n\n\n<p>Il comma 3 vieta discriminazioni basate su caratteristiche personali, richiamando, implicitamente, il principio di uguaglianza sostanziale di cui all\u2019art. 3 Cost.<\/p>\n\n\n\n<p><strong>Articolo 12 &#8211; Osservatorio sull&#8217;adozione di sistemi di IA nel mondo del lavoro<\/strong><strong><\/strong><\/p>\n\n\n\n<p>Viene istituito presso il Ministero del Lavoro un Osservatorio con funzioni di definizione strategica, monitoraggio dell&#8217;impatto occupazionale, identificazione dei settori maggiormente interessati e promozione della formazione.<\/p>\n\n\n\n<p>La composizione e il funzionamento sono demandati a decreto ministeriale da emanarsi entro 90 giorni. Il comma 2 esclude compensi per i componenti.&nbsp;<\/p>\n\n\n\n<p><strong>Articolo 13 &#8211; Disposizioni in materia di professioni intellettuali<\/strong><\/p>\n\n\n\n<p>L&#8217;articolo limita l&#8217;uso dell&#8217;IA nelle professioni intellettuali ad &#8220;attivit\u00e0 strumentali e di supporto&#8221;, mantenendo la prevalenza del lavoro intellettuale umano. Il comma 2 impone trasparenza comunicativa verso il cliente con &#8220;linguaggio chiaro, semplice ed esaustivo&#8221; per preservare il rapporto fiduciario.<\/p>\n\n\n\n<p><strong>Articolo 14 &#8211; Uso dell&#8217;intelligenza artificiale nella pubblica amministrazione<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo delinea gli obiettivi dell&#8217;uso dell&#8217;IA nella PA: incremento dell&#8217;efficienza, riduzione dei tempi procedimentali, miglioramento quali-quantitativo dei servizi. Il comma 2 configura l&#8217;IA come strumento &#8220;strumentale e di supporto&#8221; all&#8217;attivit\u00e0 provvedimentale, mantenendo ferma la responsabilit\u00e0 umana.<\/p>\n\n\n\n<p>Il comma 3 richiede misure tecniche, organizzative e formative per un uso responsabile.<\/p>\n\n\n\n<p><strong>Articolo 15 &#8211; Uso dell&#8217;intelligenza artificiale nell&#8217;attivit\u00e0 giudiziaria<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo delimita rigorosamente l&#8217;ambito di utilizzo dell&#8217;IA in ambito giudiziario a funzioni di &#8220;organizzazione e semplificazione del lavoro&#8221; e &#8220;ricerca giurisprudenziale e dottrinale&#8221;. Il Ministero della Giustizia disciplina l&#8217;impiego per gli uffici giudiziari ordinari, mentre le altre giurisdizioni seguono i rispettivi ordinamenti.<\/p>\n\n\n\n<p>Il comma 2 riserva &#8220;sempre&#8221; al magistrato la decisione su interpretazione normativa, valutazione probatoria e adozione di provvedimenti, escludendo qualsiasi forma di automazione decisionale.<\/p>\n\n\n\n<p><strong>Articolo 17 &#8211; Modifiche al codice di procedura civile<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo modifica l&#8217;art. 9 c.p.c. attribuendo competenza esclusiva al tribunale per le cause aventi ad oggetto &#8220;il funzionamento di un sistema di intelligenza artificiale&#8221;, creando una specializzazione giurisdizionale per la complessit\u00e0 tecnica della materia.<\/p>\n\n\n\n<p><strong>Articolo 18 &#8211; Uso dell&#8217;intelligenza artificiale per il rafforzamento della cybersicurezza nazionale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo integra il D.L. 82\/2021 aggiungendo tra le funzioni dell&#8217;ACN la promozione e sviluppo di iniziative, anche in partenariato pubblico-privato, per valorizzare l&#8217;IA come risorsa per la cybersicurezza nazionale.<\/p>\n\n\n\n<p><strong>CAPO III &#8211; STRATEGIA NAZIONALE, AUTORIT\u00c0 NAZIONALI E AZIONI DI PROMOZIONE (Articoli 17-22)<\/strong><strong><\/strong><\/p>\n\n\n\n<p><strong>Articolo 19 &#8211; Strategia nazionale per l&#8217;intelligenza artificiale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo disciplina la governance strategica dell&#8217;IA. La strategia \u00e8 predisposta dalla Presidenza del Consiglio (struttura competente per l&#8217;innovazione digitale) d&#8217;intesa con le Autorit\u00e0 nazionali IA, sentiti il MIMIT per i profili industriali e il Ministero della Difesa per i sistemi dual use.<\/p>\n\n\n\n<p>L&#8217;approvazione avviene con cadenza biennale tramite il Comitato Interministeriale per la transizione digitale. Il comma 2 delinea gli obiettivi: favorire collaborazioni pubblico-privato, coordinare l&#8217;azione amministrativa, promuovere ricerca e diffusione delle conoscenze, indirizzare misure e incentivi.<\/p>\n\n\n\n<p>Il comma 3 affida il coordinamento e monitoraggio alla struttura della Presidenza del Consiglio, che si avvale di AgID e ACN, con report annuale alle Camere. Il comma 4 integra la composizione del CITD con il Ministro dell&#8217;Universit\u00e0 e Ricerca.<\/p>\n\n\n\n<p><strong>Articolo 20 &#8211; Autorit\u00e0 nazionali per l&#8217;intelligenza artificiale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo designa AgID e ACN quali Autorit\u00e0 nazionali IA con ripartizione funzionale:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>AgID (lett. a): promozione dell&#8217;innovazione e sviluppo; procedure e funzioni di notifica, valutazione, accreditamento e monitoraggio degli organismi di valutazione della conformit\u00e0<\/li>\n\n\n\n<li>ACN (lett. b): vigilanza, attivit\u00e0 ispettive e sanzionatorie; promozione dell&#8217;IA per profili di cybersicurezza<\/li>\n\n\n\n<li>Congiuntamente (lett. c): gestione degli spazi di sperimentazione<\/li>\n<\/ul>\n\n\n\n<p>Il comma 2 istituisce presso la PCM un Comitato di coordinamento composto dai DG di AgID e ACN e dal Capo Dipartimento per la trasformazione digitale, senza compensi. Il comma 3 salvaguarda le competenze del Garante Privacy.<\/p>\n\n\n\n<p><strong>Articolo 21 &#8211; Applicazione sperimentale al MAECI<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo autorizza una spesa di 300.000 euro annui per il biennio 2025-2026 per progetti sperimentali di applicazione dell&#8217;IA ai servizi del Ministero degli Affari Esteri.&nbsp;<\/p>\n\n\n\n<p><strong>Articolo 22 &#8211; Misure di sostegno ai giovani e allo sport<\/strong><strong><\/strong><\/p>\n\n\n\n<p>Il comma 1 modifica il D.lgs. 209\/2023 includendo l&#8217;attivit\u00e0 di ricerca in IA tra i requisiti. Il comma 2 consente agli studenti ad alto potenziale cognitivo di accedere a percorsi formativi superiori in deroga al possesso del titolo, con riconoscimento dei crediti acquisiti.<\/p>\n\n\n\n<p>Il comma 3 promuove l&#8217;accessibilit\u00e0 ai sistemi di IA per il benessere psicofisico attraverso lo sport e l&#8217;inclusione delle persone con disabilit\u00e0.<\/p>\n\n\n\n<p><strong>Articolo 23 &#8211; Investimenti nei settori dell&#8217;intelligenza artificiale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo autorizza investimenti fino a un miliardo di euro tramite la SGR di cui all&#8217;art. 1, comma 116, L. 145\/2018 per partecipazioni in:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>PMI innovative con sede in Italia nei settori IA, cybersicurezza, quantum computing, telecomunicazioni (lett. a)<\/li>\n\n\n\n<li>Imprese con elevato potenziale per promuovere campioni tecnologici nazionali (lett. b)<\/li>\n<\/ul>\n\n\n\n<p>Gli investimenti utilizzano il Fondo di sostegno al venture capital. Il comma 3 prevede la partecipazione agli organi di governo dei fondi di rappresentanti della PCM e dell&#8217;ACN, senza compensi.<\/p>\n\n\n\n<p><strong>Articolo 24 &#8211; Deleghe al Governo in materia di intelligenza artificiale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo contiene due deleghe legislative. La prima (comma 1) per l&#8217;adeguamento all&#8217;AI Act europeo entro 12 mesi, con procedura ex art. 31 L. 234\/2012 e pareri parlamentari e del Garante Privacy.<\/p>\n\n\n\n<p>I criteri direttivi (comma 2) includono: designazione autorit\u00e0 competenti; percorsi di alfabetizzazione; formazione professionale con possibile equo compenso; potenziamento competenze STEM; attivit\u00e0 formative universitarie e ITS; valorizzazione ricerca e trasferimento tecnologico.<\/p>\n\n\n\n<p>La seconda delega (comma 3) riguarda la disciplina organica dei casi di uso illecito dell&#8217;IA, con proposta del PCM e Ministro Giustizia, di concerto con il Ministro dell&#8217;Interno.<\/p>\n\n\n\n<p>I principi direttivi (comma 5) prevedono: strumenti inibitori e sanzionatori; nuove fattispecie di reato per omessa sicurezza e tutela beni giuridici specifici; circostanza aggravante speciale; revisione normativa complessiva.<\/p>\n\n\n\n<p><strong>CAPO IV &#8211; DISPOSIZIONI A TUTELA DEGLI UTENTI E IN MATERIA DI DIRITTO D&#8217;AUTORE (Articolo 25)<\/strong><strong><\/strong><\/p>\n\n\n\n<p><strong>Articolo 25 &#8211; Tutela del diritto d\u2019autore delle opere generate con l\u2019ausilio dell\u2019intelligenza artificiale<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo modifica la L. 633\/1941. La lettera a) specifica che le opere dell&#8217;ingegno tutelate sono quelle dell'&#8221;ingegno umano&#8221;, anche se create con ausilio IA purch\u00e9 costituenti &#8220;risultato del lavoro intellettuale dell&#8217;autore&#8221;.<\/p>\n\n\n\n<p>La lettera b) inserisce l&#8217;art. 70-septies che consente riproduzione ed estrazione tramite IA in conformit\u00e0 agli articoli 70-ter e 70-quater sul text and data mining.<\/p>\n\n\n\n<p><strong>CAPO V &#8211; DISPOSIZIONI PENALI (Articolo 26)<\/strong><strong><\/strong><\/p>\n\n\n\n<p><strong>Articolo 26 &#8211; Modifiche al codice penale e ulteriori disposizioni penali<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo introduce modifiche sostanziali al sistema penale:<\/p>\n\n\n\n<p>Il comma 1 modifica il codice penale:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Lett. a): aggiunge l&#8217;aggravante comune n. 11-decies per reati commessi mediante IA quando costituisca mezzo insidioso o ostacoli la difesa<\/li>\n\n\n\n<li>Lett. b-l): introduce aumenti di pena per specifici reati (usurpazione funzioni, sostituzione di persona, rialzo\/ribasso fraudolento, truffa, frode informatica, riciclaggio) quando commessi mediante IA<\/li>\n\n\n\n<li>Lett. e): introduce l&#8217;art. 612-quater c.p. &#8220;Illecita diffusione di contenuti generati o alterati con sistemi di IA&#8221;, punito con reclusione 1-5 anni, procedibile a querela salvo connessione o vittima incapace (si introduce, cos\u00ec, il reato relativo al deep fake)<\/li>\n<\/ul>\n\n\n\n<p>Il comma 2 modifica l&#8217;art. 2637 c.c. sull&#8217;aggiotaggio. Il comma 3 modifica la legge sul diritto d&#8217;autore. Il comma 4 modifica il TUF per i reati finanziari.<\/p>\n\n\n\n<p><strong>CAPO VI &#8211; DISPOSIZIONI FINANZIARIE (Articolo 26)<\/strong><strong><\/strong><\/p>\n\n\n\n<p><strong>Articolo 26 &#8211; Clausola di invarianza finanziaria<\/strong><strong><\/strong><\/p>\n\n\n\n<p>L&#8217;articolo stabilisce che dall&#8217;attuazione della legge, eccetto l&#8217;art. 19, non devono derivare nuovi o maggiori oneri per la finanza pubblica. Le amministrazioni provvedono con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.<\/p>\n\n\n\n<p><strong>SUL DRAFTING LEGISLATIVO.<\/strong><strong><\/strong><\/p>\n\n\n\n<p>Soffermandosi sulla tecnica scelta dal legislatore per disciplinare la materia relativa alla Intelligenza Artificiale, si nota un sistema normativo a geometria variabile, formalmente sistematico, ma sostanzialmente frammentato, dove l&#8217;operativit\u00e0 effettiva dipende criticamente dai futuri decreti attuativi. Questa scelta tecnica rivela, forse, la tensione tra l&#8217;ambizione regolatoria immediata e la necessit\u00e0 di flessibilit\u00e0 evolutiva.<\/p>\n\n\n\n<p>Particolarmente incisiva risulta l&#8217;osservazione sulla clausola di invarianza finanziaria (art. 27) che appare incompatibile con l&#8217;apparato organizzativo previsto, quasi una <em>fiction<\/em> normativa. Tale contraddizione rischia di compromettere l&#8217;effettivit\u00e0 dell&#8217;intero impianto normativo.<\/p>\n\n\n\n<p>Il ricorso massiccio a clausole generali (&#8220;dimensione antropocentrica&#8221;, &#8220;spiegabilit\u00e0&#8221;) rappresenta una scelta deliberata di elasticit\u00e0 normativa che, tuttavia, trasferisce eccessiva discrezionalit\u00e0 interpretativa agli organi applicativi, con potenziali rischi di disomogeneit\u00e0 applicativa (vista anche la compresenza di pi\u00f9 autorit\u00e0 controllanti).<\/p>\n\n\n\n<p>Si sottolinea, inoltre, la disomogeneit\u00e0 nella determinatezza dei criteri di delega (art. 24), oscillanti tra precisione tecnica e genericit\u00e0 programmatica. Tale aspetto solleva legittime perplessit\u00e0 costituzionali, specialmente per le deleghe in materia penale, in cui il principio di legalit\u00e0 richiederebbe maggiore determinatezza. A titolo meramente esemplificativo si indica l\u2019art. 24, comma 1, lett. h) in cui si rimanda alla decretazione attuativa \u201cla previsione di una apposita disciplina per l\u2019utilizzo di sistemi di intelligenza artificiale per l\u2019attivit\u00e0 di polizia\u201d, ma nulla si dice, ad esempio, sul perimetro rispettoso dei corollari del principio di legalit\u00e0 entro cui pensare di far usare queste tecnologie invasive.<\/p>\n\n\n\n<p>\u00c8 possibile, poi, rilevare un approccio, per cos\u00ec dire, ambivalente al coordinamento normativo: mentre il DDL approvato dichiara conformit\u00e0 al diritto UE e salvaguarda formalmente le competenze del Garante PDP, manca di meccanismi operativi di raccordo, lasciando irrisolte potenziali sovrapposizioni tra AgID, ACN e altre autorit\u00e0.<\/p>\n\n\n\n<p>Insomma, la tecnica della normazione per principiadottata se \u00e8 vero che risponde alla natura evolutiva della materia, delega per\u00f2 eccessive responsabilit\u00e0 alla normazione secondaria. Il successo dell&#8217;impianto dipender\u00e0, quindi, non tanto dalla legge quadro quanto dalla qualit\u00e0 dei decreti delegati e dalla capacit\u00e0 delle autorit\u00e0 di sviluppare prassi coerenti &#8211; un esito tutt&#8217;altro che scontato data l&#8217;indeterminatezza di molte disposizioni chiave.<\/p>\n\n\n\n<p><strong>CONSIDERAZIONI CRITICHE.<\/strong><strong><\/strong><\/p>\n\n\n\n<p>Non si pu\u00f2 omettere qualche riflessione critica che solleva la nuova legge italiana sulla IA.<\/p>\n\n\n\n<p>Prima di tutto, la scelta di dividere le competenze tra AgID (promozione e certificazione) e ACN (vigilanza e sanzioni) presenta criticit\u00e0 strutturali che potrebbero compromettere l&#8217;efficacia del sistema.<\/p>\n\n\n\n<p>Ci potrebbe essere, infatti, un problema di conflitto del ruolo: L&#8217;ACN, nata per la cybersicurezza nazionale con forti legami con l&#8217;intelligence, si trova a dover vigilare su sistemi IA utilizzati dalle stesse amministrazioni da cui dipende gerarchicamente. Quando un sistema IA governativo violer\u00e0 il regolamento, l&#8217;ACN avr\u00e0 realmente l&#8217;autonomia per sanzionare la Presidenza del Consiglio da cui dipende? Tale preoccupazione \u00e8 stata rilevata nel marzo del 2024 anche dal Garante PDP, il quale in una <a href=\"https:\/\/garanteprivacy.it\/home\/docweb\/-\/docweb-display\/docweb\/9996508\">lettera<\/a> segnalava al Parlamento e al Governo di \u201cpossedere i requisiti di competenza e indipendenza necessari per attuare il Regolamento europeo sull\u2019intelligenza artificiale coerentemente con l\u2019obiettivo di un livello elevato di tutela dei diritti fondamentali\u201d, con ci\u00f2 ribadendo che \u201c\u2026l\u2019AI Act si fonda sull\u2019articolo 16 del Trattato sul funzionamento dell\u2019Unione europea, che \u00e8 la base giuridica della normativa di protezione dei dati, e lo stesso Regolamento sull\u2019intelligenza artificiale prevede il controllo delle Autorit\u00e0 di protezione dei dati personali su processi algoritmici che utilizzino dati personali\u201d.<\/p>\n\n\n\n<p>Inoltre<strong>, <\/strong>la separazione tra chi certifica (AgID) e chi sanziona (ACN) crea un potenziale cortocircuito procedurale. Un&#8217;azienda che sviluppa IA dovr\u00e0 interfacciarsi con due autorit\u00e0 diverse per aspetti interconnessi, moltiplicando tempi e costi di compliance. Si pensi al caso in cui AgID certifichi un sistema di IA come conforme sulla base di determinati standard tecnici e documentali. Tuttavia, ACN, con il suo focus su cybersicurezza e gestione del rischio, potrebbe in seguito valutare lo stesso sistema in modo pi\u00f9 stringente in caso di incidente, applicando interpretazioni diverse o pi\u00f9 severe. Un&#8217;azienda potrebbe quindi essere certificata, ma non sentirsi comunque al sicuro da eventuali sanzioni. Oppure, ancora, per ottenere la conformit\u00e0, un&#8217;azienda dovr\u00e0 produrre documentazione tecnica, analisi di rischio e report per AgID. In caso di audit o incidente, dovr\u00e0 fornire documentazione molto simile, ma forse in un formato diverso o con un fulcro di indagine differente, anche ad ACN. Questo raddoppia l&#8217;onere burocratico, nonch\u00e8 i costi legali e di consulenza.<\/p>\n\n\n\n<p>In secondo luogo, l&#8217;articolo 27 rappresenta il paradosso pi\u00f9 evidente della nuova legge. Si istituiscono un Osservatorio sul lavoro (art. 12), due Comitati di coordinamento (artt. 19 e 20), una piattaforma nazionale IA presso AGENAS (art. 10) e spazi di sperimentazione normativa (art. 20) senza nuovi oneri. \u00c8 tecnicamente impossibile. Le autorit\u00e0 designate dovranno assumere esperti di IA, data scientist, giuristi specializzati. Il vero prezzo di questa legge si vedr\u00e0 quando il sistema, privo di risorse adeguate, si bloccher\u00e0, danneggiando proprio le piccole e medie imprese che si volevano aiutare.<\/p>\n\n\n\n<p>E sebbene l&#8217;art. 23 autorizzi investimenti fino a un miliardo in IA e cybersecurity, senza una strategia industriale chiara, questi fondi rischiano di disperdersi in mille rivoli. Si dovrebbero definire chiaramente criteri di selezione delle imprese, metriche di successo, meccanismi di exit e sinergie con il tessuto produttivo esistente.<\/p>\n\n\n\n<p>Passando al versante pi\u00f9 tecnico, l&#8217;articolo 17 attribuisce al tribunale la competenza esclusiva per le controversie sull&#8217;IA, escludendo il giudice di pace. Questa scelta pare nasconda un problema sistemico: concentrer\u00e0 tutto il contenzioso IA presso tribunali gi\u00e0 sovraccarichi e spesso privi di competenze tecniche specifiche.<\/p>\n\n\n\n<p>Non si prevede alcuna specializzazione dei magistrati n\u00e9 sezioni dedicate. Si auspica che un futuro decreto delegato specifichi questi aspetti, altrimenti il risultato sarebbe quello di avere tempi biblici per controversie che richiederebbero decisioni rapide in un settore in evoluzione costante.<\/p>\n\n\n\n<p>Sul piano penale, l&#8217;art. 24, comma 5, lett. b) introduce il concetto di reati di pericolo per omessa adozione di misure di sicurezza nell&#8217;IA. Questa formulazione apre ad interrogativi molto seri. A titolo esemplificativo, quale sar\u00e0 lo standard di sicurezza richiesto in un campo in continua evoluzione? Chi definir\u00e0 cosa costituisce &#8220;pericolo concreto&#8221; in sistemi probabilistici?&nbsp;<\/p>\n\n\n\n<p>Il rischio \u00e8 di paralizzare l&#8217;innovazione per timore di responsabilit\u00e0 penali indefinite.<\/p>\n\n\n\n<p>Ancora, la legge rimanda ai decreti delegati (art. 24, comma 5, lett. d) la definizione dei criteri di ripartizione dell&#8217;onere probatorio nella responsabilit\u00e0 civile. Questo \u00e8 un punto rilevantissimo completamente inevaso: chi risponde quando un&#8217;IA causa un danno? Si \u00e8 consapevoli della dottrina in materia, ma sarebbe stato opportuno dare almeno una direttrice specifica da seguire, in modo da non lasciare completamente in mano alla discrezionalit\u00e0 del decreto delegato una questione giuridica delicata e di complessa composizione.<\/p>\n\n\n\n<p>Anche qui, senza questi criteri, le aziende opereranno in un limbo legale che scoragger\u00e0 investimenti e innovazione.<\/p>\n\n\n\n<p>Spostandosi sul piano sanitario, invece, si autorizza sempre, ex art. 8, l&#8217;uso secondario di dati sanitari pseudonimizzati per la ricerca con l\u2019IA a fronte di una semplice informativa generale. Questo approccio, decisamente innovativo, rappresenta una delle novit\u00e0 pi\u00f9 importanti, molto attesa da gran parte della dottrina pi\u00f9 avanzata. La disposizione, infatti, consente a ricercatori e aziende sanitarie di dotarsi di una base giuridica dedicata per anonimizzare, pseudonimizzare e creare dati sintetici con i dati personali, anche sensibili, che detengono, per fini di ricerca scientifica sanitaria con sistemi di IA e di governo della salute.<strong><\/strong><\/p>\n\n\n\n<p>Per ci\u00f2 che concerne le professioni intellettuali, la legge limita l\u2019uso di sistemi intelligenti ad attivit\u00e0 &#8220;strumentali e di supporto&#8221; con &#8220;prevalenza del lavoro intellettuale&#8221;. Ma chi definir\u00e0 questa prevalenza? Come si misura percentualmente il contributo intellettuale?<\/p>\n\n\n\n<p>Nel campo della giustizia si \u00e8 dimostrato poco coraggio. L&#8217;articolo 15 esclude categoricamente l&#8217;IA dalle decisioni giudiziarie. Mentre altri paesi sperimentano con cautela sistemi di supporto decisionale, l&#8217;Italia si autoesclude completamente. Il paradosso? I magistrati potranno usare IA per ricerca giurisprudenziale, ma non per analizzare pattern decisionali. Una distinzione artificiale che ignora come funziona realmente l&#8217;IA.<\/p>\n\n\n\n<p>Emerge, poi, sul piano applicativo vero e proprio, il rischio di <em>gold plating<\/em> normativo nella misura in cui le aziende dovranno rispettare l&#8217;AI Act e conformarsi alle specificit\u00e0 italiane, ma, per farlo, dovranno attendere i decreti delegati per capire cosa fare concretamente.<strong><\/strong><\/p>\n\n\n\n<p>Se questo triplo livello normativo creer\u00e0 uno svantaggio competitivo per le imprese italiane rispetto ai <em>competitors<\/em> europei, lo sapremo solo dopo aver analizzato l\u2019operato degli altri Stati membri.<\/p>\n\n\n\n<p><strong>Luci ed ombre; conclusioni.<\/strong><\/p>\n\n\n\n<p>La neonata legge sulla IA italiana potrebbe posizionare l&#8217;Italia come laboratorio giuridico europeo per l&#8217;implementazione dell&#8217;AI Act, conferendo al Paese un vantaggio temporale significativo nell&#8217;ecosistema normativo continentale. Essere i primi significa poter definire standard interpretativi e prassi operative che potrebbero influenzare le scelte degli altri Stati membri.<\/p>\n\n\n\n<p>In un contesto in cui l&#8217;incertezza normativa rappresenta il principale freno agli investimenti in IA, l&#8217;Italia offre ora alle imprese un quadro regolatorio definito. In linea astratta, adesso le aziende possono pianificare investimenti e strategie con maggiore prevedibilit\u00e0, elemento importante per attrarre capitali internazionali.&nbsp;<\/p>\n\n\n\n<p>La scelta di disciplinare specificamente sanit\u00e0, lavoro, giustizia e PA potrebbe risultare decisiva perch\u00e8 permetterebbe di creare <em>sandbox<\/em> regolamentari mirati per settore, sviluppare <em>best practices<\/em> verticali esportabili, attrarre investimenti specializzati in nicchie ad alto valore aggiunto.<\/p>\n\n\n\n<p>Ad esempio, l&#8217;Italia potrebbe diventare <em>hub<\/em> europeo per l&#8217;IA sanitaria o per le applicazioni nella PA, sfruttando la specificit\u00e0 normativa come vantaggio competitivo.<\/p>\n\n\n\n<p>L&#8217;articolo 8 sul trattamento dei dati sanitari per ricerca, seppur con le dovute cautele privacy, sblocca, infatti, un patrimonio informativo enorme. Il SSN italiano, con i suoi dati centralizzati e standardizzati, rappresenta un asset unico in Europa. La normativa permette, finalmente, di valorizzarlo per ricerca e innovazione, potenzialmente posizionando l&#8217;Italia come leader nell&#8217;IA medicale.<\/p>\n\n\n\n<p>L&#8217;articolo 5, con il riferimento esplicito a microimprese e PMI e la preferenza per <em>data center <\/em>nazionali nel <em>procurement<\/em> pubblico potrebbe essere vista come strategia industriale. Crea un mercato interno protetto in cui le aziende italiane possono crescere prima di competere globalmente, mentre il riferimento alla sovranit\u00e0 tecnologica legittima politiche di supporto all&#8217;ecosistema nazionale.<\/p>\n\n\n\n<p>Si ritiene, poi, che l&#8217;attribuzione della competenza esclusiva ai tribunali potrebbe diventare un&#8217;opportunit\u00e0 per creare poli giudiziari specializzati in IA. Milano, Roma, Napoli potrebbero sviluppare <em>expertise<\/em> specifiche, attraendo arbitrati internazionali e diventando <em>forum<\/em> di riferimento per il contenzioso IA in Europa.<\/p>\n\n\n\n<p>Inoltre, avere una normativa definita permette alle universit\u00e0 e agli ITS Academy di strutturare percorsi formativi allineati al quadro normativo. L&#8217;Italia pu\u00f2 formare una generazione di giuristi, tecnici e manager specializzati in compliance IA prima degli altri Paesi, esportando poi queste competenze.<\/p>\n\n\n\n<p>Da un lato, essere i primi ad implementare l&#8217;AI Act trasforma l&#8217;Italia in un riferimento naturale per gli altri Stati membri che dovranno affrontare le stesse sfide implementative, creando opportunit\u00e0 per esportare competenze consulenziali e attrarre sedi di organismi europei specializzati. Questo capitale reputazionale si traduce in influenza concreta nei tavoli decisionali europei in cui si definiranno gli standard futuri dell&#8217;IA.<\/p>\n\n\n\n<p>Dall&#8217;altro lato, la definizione chiara dei confini normativi, compresi i divieti espliciti come quello sull&#8217;uso dell&#8217;IA nelle decisioni giudiziarie, facilita gli investimenti anzich\u00e9 frenarli. Le aziende possono infatti concentrare risorse e innovazione nei settori espressamente permessi, evitando di disperdere capitali in aree destinate a restrizioni future. In un settore caratterizzato da forte incertezza normativa, sapere con precisione cosa non si pu\u00f2 fare diventa prezioso quanto sapere cosa \u00e8 consentito, permettendo una pianificazione mirata e riducendo il rischio di investimenti che potrebbero essere vanificati da successive regolamentazioni.<\/p>\n\n\n\n<p>Il testo appena pubblicato, con tutti i suoi limiti, rappresenta, s\u00ec, un atto di coraggio normativo. Mentre altri Paesi attendono, l&#8217;Italia si muove, sperimenta e, si sa, il vero valore non sta nella perfezione della norma, bens\u00ec nell&#8217;esperienza accumulata nella sua implementazione.<\/p>\n\n\n\n<p>Allo stesso tempo rappresenta, per\u00f2, un pericolo per alcuni diritti fondamentali. La legge avrebbe potuto e dovuto essere pi\u00f9 coraggiosa, anzich\u00e9 affidare all\u2019esecutivo cos\u00ec tanti e delicati profili: sembra che, in nome dell\u2019efficienza amministrativa, sia lecito giustificare l\u2019aumento dell\u2019impiego delle IA in campo militare e sulla sicurezza.<\/p>\n\n\n\n<p>Non solo. Le perplessit\u00e0 di tenuta democratica riguardano il timore che si possa ricorrere ad una sorveglianza selvaggia dei cittadini (si parla di telecamere antispaccio, ad esempio) e la ampia delega al governo preoccupa per la possibile deriva securitaria che ne potrebbe seguire; inoltre, l\u2019IA entrer\u00e0 sempre pi\u00f9 nei gangli delle decisioni pubbliche, ma senza un controllo adeguato si potrebbe abdicare alla responsabilit\u00e0 decisionale umana.<\/p>\n\n\n\n<p>Quello delle tecnologie \u00e8 un campo che merita riflessioni pi\u00f9 profonde e pi\u00f9 meditate, poich\u00e9 la tecnologia corre velocissima, la regolamentazione, soprattutto quella che arriva dopo, dovrebbe prendersi pi\u00f9 tempo per risolvere i nodi pi\u00f9 complessi sul tavolo parlamentare e non delegare sbrigativamente all\u2019esecutivo.<\/p>\n\n\n\n<p>Se l&#8217;Italia sapr\u00e0 correggere rapidamente gli inevitabili errori attraverso i decreti delegati, monitorare costantemente l&#8217;applicazione e comunicare efficacemente questo primato a investitori e imprese internazionali, il <em>first-mover advantage<\/em> potrebbe tradursi in un reale vantaggio competitivo nel mercato europeo dell&#8217;IA.<\/p>\n\n\n\n<p>Il punto ora \u00e8 trasformare il primato temporale in leadership sostanziale, evitando che l&#8217;essere stati i primi significhi, semplicemente, l&#8217;essere stati i pi\u00f9 frettolosi.<\/p>\n\n\n\n<p>L\u2019idea, insomma, \u00e8 di trovarsi di fronte ad un bivio tra un&#8217;affermazione di sovranit\u00e0 giuridico-tecnologica e il rischio di un&#8217;autoreferenzialit\u00e0 normativa tanto ambiziosa quanto sterile. E ci\u00f2 perch\u00e9 il processo di normopoiesi in ambito tecnologico ha delle peculiarit\u00e0 rispetto ad altri ambiti.<\/p>\n\n\n\n<p>Infatti, la tentazione di supplire alla fisiologica lentezza del dibattito parlamentare con lo strumento della delega all&#8217;esecutivo rappresenta una scorciatoia densa di pericoli. Se da un lato risponde a un&#8217;esigenza di celerit\u00e0, dall&#8217;altro rischia di sacrificare la ponderazione necessaria a disciplinare una materia ad altissima complessit\u00e0 e impatto sistemico. Una regolamentazione ex post, per sua natura, deve fondarsi su un&#8217;analisi consolidata dei fenomeni; una delega affrettata, al contrario, trasla l&#8217;onere di risolvere nodi giuridici fondamentali dal legislatore all&#8217;amministrazione, con potenziali deficit di legittimit\u00e0 democratica e di stabilit\u00e0 del quadro normativo. Ma per gli operatori del settore, la certezza del diritto \u00e8, per cos\u00ec dire, un asset non negoziabile.<\/p>\n\n\n\n<p>Detto questo, si auspica che i decreti attuativi verranno intesi come strumenti di manutenzione normativa, capaci di emendare, con precisione chirurgica e rapidit\u00e0, le inevitabili imperfezioni di un testo pioniere.<\/p>\n\n\n\n<p>Nondimeno, si spera che i meccanismi di sorveglianza regolamentare permanenti, come sandbox o osservatori congiunti (istituzioni-imprese), possano essere davvero messi in condizioni di operare per valutare l&#8217;impatto de facto della legge sul tessuto economico e adattarla all&#8217;evoluzione tecnologica.<\/p>\n\n\n\n<p>L&#8217;ordinamento italiano \u00e8 ora esposto ad una biforcazione strategica, siamo stati i primi. Resteremo tali?<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-default\" style=\"margin-top:var(--wp--preset--spacing--30);margin-bottom:var(--wp--preset--spacing--30)\" \/>\n\n\n\n<p class=\"is-style-info\" style=\"margin-top:var(--wp--preset--spacing--20);margin-bottom:var(--wp--preset--spacing--20);line-height:1.4\">Di <strong>Enrica Priolo<\/strong><br><em>Avvocato iscritto all&#8217;Ordine degli Avvocati di Cagliari e consulente esperto in diritto delle nuove tecnologie, protezione dei dati personali, cybersecurity e governance digitale. E&#8217; relatrice in vari convegni ed autrice di pubblicazioni in materia di nuove tecnologie, data protection e compliance aziendale.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il disegno di legge n. 1146\/2024, approvato definitivamente dal Senato della Repubblica il 17 settembre 2025, \u00e8 stato pubblicato in Gazzetta Ufficiale il 23 settembre come legge n. 132 ed entrer\u00e0 in vigore il 10 ottobre. [&hellip;]<\/p>\n","protected":false},"author":2239,"featured_media":1104,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","footnotes":""},"categories":[1],"tags":[13,10,8,12],"class_list":["post-1103","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news-ed-eventi","tag-artificial-intelligence","tag-etica","tag-ia","tag-intelligenza_artificiale"],"_links":{"self":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1103","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/users\/2239"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/comments?post=1103"}],"version-history":[{"count":2,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1103\/revisions"}],"predecessor-version":[{"id":1136,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1103\/revisions\/1136"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media\/1104"}],"wp:attachment":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media?parent=1103"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/categories?post=1103"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/tags?post=1103"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}