{"id":358,"date":"2023-10-31T13:09:53","date_gmt":"2023-10-31T12:09:53","guid":{"rendered":"https:\/\/sites.unica.it\/ict4lawforensics\/?p=358"},"modified":"2025-09-15T10:33:25","modified_gmt":"2025-09-15T08:33:25","slug":"intelligenza-artificiale-dagli-usa-nuove-forme-di-regolamentazione","status":"publish","type":"post","link":"https:\/\/sites.unica.it\/ict4lawforensics\/2023\/10\/31\/intelligenza-artificiale-dagli-usa-nuove-forme-di-regolamentazione\/","title":{"rendered":"Intelligenza Artificiale, dagli USA nuove forme di regolamentazione"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\"><em>L&#8217;Executive Order in sintesi<\/em> <\/h2>\n\n\n\n<p><strong>Il 30 ottobre 2023<\/strong>, il Presidente degli Stati Uniti Biden ha emesso uno <strong>storico <a rel=\"noreferrer noopener\" href=\"https:\/\/media.licdn.com\/dms\/document\/media\/D4E1FAQFHtQCudrYWsw\/feedshare-document-pdf-analyzed\/0\/1698669493371?e=1699488000&amp;v=beta&amp;t=XSQI2w1jhTbPSitbUWA7-KV72qmqGKvQyxdHSIL-5Mo\" target=\"_blank\">ordine esecutivo<\/a>,<\/strong> per garantire che il paese fosse all\u2019avanguardia nel cogliere le opportunit\u00e0, ma soprattutto per gestire <strong>i potenziali rischi  dell\u2019intelligenza artificiale (AI).<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nel complesso, l\u2019ordine esecutivo si basa sulle precedenti azioni intraprese dal presidente, compreso il lavoro che ha portato all\u2019<strong>impegno volontario<\/strong> di 15 aziende leader per promuovere uno sviluppo sicuro e affidabile dell\u2019intelligenza artificiale.<\/p>\n\n\n\n<p>I <strong>principali obiettivi <\/strong>dell\u2019Ordine Esecutivo mirano, in particolare, a: <\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><span class=\"uppercase\">Stabilire<strong> nuovi standard per la sicurezza<\/strong> e la protezione dell\u2019IA<\/span>. Le principali linee di azione sono finalizzate a: \n<ul class=\"wp-block-list\">\n<li><strong>Richiedere che gli sviluppatori dei sistemi di intelligenza artificiale pi\u00f9 potenti condividano i risultati dei test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti.<\/strong> Questa misura si propone in continuit\u00e0 con i contenuti del <em style=\"font-weight: bold\">Defense Production Act<\/em>. L&#8217;obiettivo \u00e8 quello di inibire la circolazione di prodotti pericolosi qualora presentino rischi per la sicurezza nazionale e per l&#8217;incolumit\u00e0 pubblica. Per tali ragioni, l&#8217;ordinanza richieder\u00e0 che tutte le aziende che sviluppano sistemi in grado di rappresentare un <strong>serio rischio per la sicurezza nazionale, la sicurezza economica nazionale o la salute e l&#8217;incolumit\u00e0 pubblica nazionale, <\/strong>debbano informare il governo federale durante la formazione del modello e devono condividere i risultati di tutti i test di sicurezza.<\/li>\n\n\n\n<li><strong>Sviluppare standard, strumenti e test per garantire che i sistemi di intelligenza artificiale siano sicuri, protetti e affidabili.<\/strong><\/li>\n\n\n\n<li><strong>Proteggersi dai rischi derivanti dall\u2019utilizzo dell\u2019intelligenza artificiale per progettare materiali biologici pericolosi&nbsp;<\/strong>&nbsp;sviluppando nuovi e forti standard per lo screening della sintesi biologica.&nbsp;<\/li>\n\n\n\n<li><strong>Proteggere gli americani dalle frodi e dagli inganni basati sull&#8217;intelligenza artificiale, stabilendo standard e migliori pratiche per rilevare i contenuti generati dall&#8217;intelligenza artificiale e autenticare i contenuti ufficiali<\/strong>.<\/li>\n\n\n\n<li><strong>Stabilire un programma avanzato di sicurezza informatica per sviluppare strumenti di intelligenza artificiale per individuare e correggere le vulnerabilit\u00e0<\/strong>.<\/li>\n\n\n\n<li><strong>Ordinare lo sviluppo di un memorandum sulla sicurezza nazionale che diriga ulteriori azioni su intelligenza artificiale e sicurezza<\/strong>.&nbsp;<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n\n<hr class=\"wp-block-coblocks-dynamic-separator\" style=\"height:50px\" \/>\n\n\n\n<p>2. <span class=\"uppercase\"><strong>Proteggere <\/strong>la <strong>privacy <\/strong>degli americani.<\/span> <\/p>\n\n\n\n<p>Se, da un lato, <strong>il Presidente invita il Congresso ad approvare una legislazione bipartisan sulla privacy dei dati, per proteggere tutti gli americani<\/strong>, dall&#8217;altro individua una serie di linee di intervento ritenute essenziali:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Proteggere la privacy degli americani, dando priorit\u00e0 alla collaborazione a livello federale per accelerare lo sviluppo e l\u2019uso di tecniche di tutela della privacy<\/strong>;<\/li>\n\n\n\n<li><strong>Rafforzare la ricerca e le tecnologie che preservano la privacy<\/strong>;<\/li>\n\n\n\n<li><strong>Valutare il modo in cui le agenzie raccolgono e utilizzano le informazioni disponibili in commercio<\/strong>&nbsp;, comprese le informazioni che ottengono dai data broker, e&nbsp;<strong>&nbsp;rafforzare le linee guida sulla privacy affinch\u00e9 le agenzie federali<\/strong>&nbsp;&nbsp;tengano conto dei rischi dell\u2019IA;<\/li>\n\n\n\n<li><strong>Sviluppare linee guida per le agenzie federali per valutare l\u2019efficacia delle tecniche di tutela della privacy<\/strong>.<\/li>\n<\/ul>\n\n\n\n<hr class=\"wp-block-coblocks-dynamic-separator\" style=\"height:50px\" \/>\n\n\n\n<p class=\"mt-0 pt-0\">3. <span class=\"uppercase\">Promuovere <strong>l\u2019equit\u00e0 <\/strong>e i diritti civili. <\/span><\/p>\n\n\n\n<p>Sul punto si osserva che <strong>gi\u00e0 in passato<\/strong> l\u2019amministrazione Biden-Harris fosse intervenuta sul punto: celebre, al riguardo, \u00e8 la pubblicazione del&nbsp;&nbsp;<a href=\"https:\/\/www.whitehouse.gov\/ostp\/ai-bill-of-rights\/\">progetto per una Carta dei diritti dell\u2019intelligenza artificiale<\/a>; al contempo, per complementare gli interventi, fu emesso un&nbsp;&nbsp;<a href=\"https:\/\/www.whitehouse.gov\/briefing-room\/statements-releases\/2023\/02\/16\/fact-sheet-president-biden-signs-executive-order-to-strengthen-racial-equity-and-support-for-underserved-communities-across-the-federal-government\/\">un ordine esecutivo<\/a> finalizzato alla lotta contro la discriminazione algoritmica da parte delle agenzie. <\/p>\n\n\n\n<p class=\"mt-0 pt-0\">Le ulteriori linee di azione tracciate si propongono di: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Fornire indicazioni chiare ai proprietari, ai programmi di benefit federali e agli appaltatori federali<\/strong>;<\/li>\n\n\n\n<li><strong>Affrontare la discriminazione algoritmica&nbsp;<\/strong>&nbsp;attraverso la formazione, l\u2019assistenza tecnica e il coordinamento tra il Dipartimento di Giustizia e gli uffici federali per i diritti civili;<\/li>\n\n\n\n<li><strong>Garantire l\u2019equit\u00e0 nel sistema della giustizia penale&nbsp;.<\/strong><\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Ulteriori obiettivi dell&#8217;Executive Order<\/h2>\n\n\n\n<p>Accanto a questi primi tre principali obiettivi, che potremmo definire di sistema per l&#8217;impatto dell&#8217;IA, l&#8217;Executive Order si sofferma su ulteriori aspetti. In particolare, sono proposte ulteriori azioni per:<\/p>\n\n\n\n<p>4. <strong>difendere <\/strong>i consumatori e i lavoratori; <\/p>\n\n\n\n<p>5. promuovere <strong>l\u2019innovazione <\/strong>e la <strong>concorrenza<\/strong>; <\/p>\n\n\n\n<p>6. potenziare <em><strong>leadership <\/strong><\/em>americana nel mondo e altro ancora.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Executive Order Vs AI Act. Quali differenze sulla governance?<\/h2>\n\n\n\n<p>L&#8217;Executive Order si pone in linea di continuit\u00e0 con i pi\u00f9 recenti approdi normativi registrati a livello europeo. Infatti, tale atto <strong>\u00e8 stato pubblicato in concomitanza con l\u2019accordo dei leader del G7<\/strong> sui principi guida e<strong> il <a rel=\"noreferrer noopener\" href=\"https:\/\/ec.europa.eu\/commission\/presscorner\/detail\/en\/ip_23_5379\" target=\"_blank\">Codice di condotta <\/a>sull\u2019intelligenza artificiale<\/strong>. Accanto ai profili di innovativit\u00e0 e di presupposti programmatici d&#8217;intervento, l&#8217;Executive Order rappresenta altres\u00ec l&#8217;occasione per riflettere su ulteriori profili di interesse, soprattutto in relazione ai pi\u00f9 recenti approdi normativi e di policy registrati a livello europeo. <\/p>\n\n\n\n<p>In particolare, desta particolare interesse valutare la <strong><em>governance soggettiva<\/em><\/strong>, al fine di valutare l&#8217;ecosistema soggettivo che ruota attorno alla regolamentazione, vigilanza e controllo dei sistemi di IA. <\/p>\n\n\n\n<p>Sul punto, <strong>si registra una significativa differenza rispetto all&#8217;AI Act europeo<\/strong>. Infatti, l&#8217;Executive Order utilizza e richiama strutture e organismi giuridici,  come ad esempio il NIST (National Institute of Standards and Technology). In questo senso, opta per l&#8217;allocazione di funzioni e competenze sulle attuali Agenzie esistenti, piuttosto che implementare un nuovo quadro generale. Questo aspetto, senza dubbio, evidenzia una profonda differenza rispetto  alla legge sull\u2019AI. <\/p>\n\n\n\n<p>Quanto, invece, alla <strong><em>governance oggettiva<\/em><\/strong>, l\u2019Executive Order non risulta adottare il medesimo approccio procedurale dell\u2019AI Act, soprattutto per i cd. <strong>sistemi ad alto rischio<\/strong>. Per altri versi, inoltre, taluni profili sulla regolazione di aspetti cruciali &#8211; come la regolamentazione della circolazione dei dati, ma soprattutto sulla trasparenza &#8211; risultano pi\u00f9 carenti dell&#8217;AI Act. <\/p>\n\n\n\n<p>Al contrario, l&#8217;Executive Order pone significativa enfasi sulle esigenze di sviluppare un&#8217;intelligenza artificiale sicura, protetta, nonch\u00e9 di valorizzare le infrastrutture, elementi che la legge sull\u2019AI \u00e8 parzialmente carente. <\/p>\n\n\n\n<p>Nel complesso, in sintesi, l&#8217;Executive Order offre utili spunti di riflessione, giacch\u00e9 tende ad allinearsi con i contenuti condivisi in vista del testo finale della normativa europea sull&#8217;AI. <\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p class=\"is-style-info\">Di\u00a0<strong>Alessia Palladino<\/strong><br><em>Assegnista di ricerca e Cultore della Materia in \u00abInformatica giuridica\u00bb e \u00abComputer Law\u00bb\u00a0 presso l\u2019Universit\u00e0 degli Studi di Cagliari<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p style=\"font-size:8px\"><em>Credits:Canva.com &#8211; Blue Planet Studio<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il 30 ottobre 2023, il Presidente degli Stati Uniti Biden ha emesso uno storico ordine esecutivo per garantire che l\u2019America sia all\u2019avanguardia nel cogliere le promesse e nella gestione dei rischi dell\u2019intelligenza artificiale (AI). L\u2019Ordine Esecutivo stabilisce nuovi standard per la sicurezza e la protezione dell\u2019IA, protegge la privacy degli americani, promuove l\u2019equit\u00e0 e i diritti civili, difende i consumatori e i lavoratori, promuove l\u2019innovazione e la concorrenza, fa avanzare la leadership americana nel mondo e altro ancora.<\/p>\n","protected":false},"author":9973,"featured_media":359,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","footnotes":""},"categories":[1],"tags":[9,13,11,10,8],"class_list":["post-358","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news-ed-eventi","tag-ai","tag-artificial-intelligence","tag-dataprotection","tag-etica","tag-ia"],"_links":{"self":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/358","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/users\/9973"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/comments?post=358"}],"version-history":[{"count":5,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/358\/revisions"}],"predecessor-version":[{"id":906,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/358\/revisions\/906"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media\/359"}],"wp:attachment":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media?parent=358"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/categories?post=358"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/tags?post=358"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}