{"id":1082,"date":"2025-02-05T12:03:43","date_gmt":"2025-02-05T11:03:43","guid":{"rendered":"https:\/\/sites.unica.it\/holmes\/?p=1082"},"modified":"2025-02-05T12:03:44","modified_gmt":"2025-02-05T11:03:44","slug":"ai-act-pubblicate-le-linee-guida-sulle-pratiche-vietate-approvate-dalla-commissione-europea","status":"publish","type":"post","link":"https:\/\/sites.unica.it\/holmes\/ai-act-pubblicate-le-linee-guida-sulle-pratiche-vietate-approvate-dalla-commissione-europea\/","title":{"rendered":"AI Act, pubblicate le Linee Guida sulle pratiche vietate approvate dalla Commissione europea"},"content":{"rendered":"\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p><em>La Commissione europea ha pubblicato le Linee Guida sulle pratiche vietate in materia di Intelligenza Artificiale. Le Linee Guida presentano importanti vantaggi: esse forniscono spiegazioni, ma soprattutto esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti dell&#8217;AI Act, per contribuire alla creazione di un panorama di IA sicuro ed etico.\u00a0<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p><strong>AI Act: quali sono i sistemi di IA consentiti?<\/strong><\/p>\n\n\n\n<p>Il <strong>Regolamento europeo sull\u2019intelligenza artificiale<\/strong> n. (EU) <strong><a href=\"https:\/\/eur-lex.europa.eu\/eli\/reg\/2024\/1689\/oj\/eng\">2024\/1689<\/a><\/strong> (in seguito, \u201cAI Act\u201d), pubblicato il 13 giugno 2024 ed ufficialmente entrato in vigore il 1\u00b0 agosto 2024, prevede norme armonizzate per l\u2019immissione sul mercato europeo, la messa in servizio e l\u2019uso dell\u2019IA.<\/p>\n\n\n\n<p>Il Regolamento <strong>mira a promuovere l\u2019innovazione<\/strong> e l\u2019adozione dell\u2019IA, garantendo \u2013 al contempo \u2013 un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali dell\u2019Unione e dei cittadini europei, ivi compresi la tutela della democrazia e dello Stato di diritto.<\/p>\n\n\n\n<p>A tal fine, il Regolamento inaugura un approccio <strong>precauzionale<\/strong>, basato sul <strong>rischio<\/strong> (cd. <strong>risk \u2013 based approach<\/strong>), classificando i sistemi di IA in diverse categorie di rischio, tra cui quelli vietati, ad alto rischio e soggetti a obblighi di trasparenza.<\/p>\n\n\n\n<p>In dettaglio, <strong>l\u2019AI Act<\/strong> classifica i sistemi di IA in <strong>quattro differenti categorie di rischio<\/strong>:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><div class=\"table-responsive\"><table class=\"table  table-striped table-bordered table-hover\"  class=\"has-fixed-layout\"><tbody><tr><td><strong><\/strong><strong>Rischio inaccettabile<\/strong> <strong><em>&nbsp;<\/em><\/strong> <strong>&nbsp;<\/strong><\/td><td>Comprende i sistemi di IA che comportano <strong>rischi inaccettabili<\/strong> per i diritti fondamentali e i valori dell\u2019Unione; tali sistemi sono <strong>esplicitamente vietati dall\u2019articolo 5<\/strong> dall\u2019AI Act. &nbsp;<\/td><\/tr><tr><td><strong><\/strong><strong>Rischio elevato<\/strong> <strong>&nbsp;<\/strong><\/td><td>Riguarda sistemi di IA che presentano <strong>rischi elevati per la salute<\/strong>, la <strong>sicurezza e i diritti fondamentali. <\/strong>Questi sistemi sono classificati come \u00abalto rischio\u00bb ai sensi <strong>dell\u2019articolo 6<\/strong> dell\u2019AI Act, in combinato disposto con gli allegati I e III; tali sistemi sono soggetti ad una serie di requisiti e obblighi. &nbsp;<\/td><\/tr><tr><td><strong><\/strong><strong>Rischio di trasparenza<\/strong> <strong>&nbsp;<\/strong><\/td><td>Comprende quei sistemi di IA che presentano un rischio di trasparenza limitato, e pertanto soggiacciono agli <strong>obblighi di trasparenza<\/strong> secondo <strong>l\u2019articolo 50<\/strong>. &nbsp;<\/td><\/tr><tr><td><strong><\/strong><strong>Rischio minimo o nullo<\/strong><\/td><td>La categoria riguarda quei sistemi di IA che presentano un <strong>rischio minimo o nullo e pertanto non necessitano una regolamentazione<\/strong>; ciononostante, i fornitori e gli operatori possono aderire volontariamente a codici di condotta, ai sensi <strong>dell\u2019articolo 95<\/strong>. &nbsp;<\/td><\/tr><\/tbody><\/table><\/div><\/figure>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"284\" height=\"177\" src=\"https:\/\/sites.unica.it\/holmes\/files\/2025\/02\/image.png\" alt=\"\" class=\"wp-image-1083\" style=\"width:324px;height:auto\" \/><figcaption class=\"wp-element-caption\"><a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai\">https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai<\/a><\/figcaption><\/figure>\n\n\n\n<p>Nell\u2019ambito delle categorie di rischio, i <strong>sistemi di IA aventi rischio inaccettabile<\/strong> rappresentano certamente quelle pi\u00f9 pericolose.<\/p>\n\n\n\n<p>Per tali ragioni, l\u2019attenzione del legislatore si \u00e8 dapprima concentrata su questa categoria, prevedendo l\u2019intervento della Commissione europea, ad integrazione del dettato normativo, per fornire dettagli su quali pratiche dovessero ritenersi vietate.<\/p>\n\n\n\n<p>Com\u2019\u00e8 noto, infatti, ai sensi <strong>dell\u2019articolo 96, paragrafo 1, lettera b), <\/strong>dell\u2019AI Act, la Commissione europea \u00e8 tenuta a adottare orientamenti operativi sulle pratiche vietate ai sensi dell\u2019articolo 5.<\/p>\n\n\n\n<p><strong>L\u2019articolo 5, comma 1, enuclea le pratiche vietate<\/strong>, divieti che sono entrati pienamente in vigore lo scorso <strong>2 febbraio 2025<\/strong>, ossia sei mesi dopo l\u2019entrata in vigore dell\u2019AI Act:<\/p>\n\n\n\n<ol style=\"list-style-type:lower-alpha\" class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio o l\u2019uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l\u2019effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la loro capacit\u00e0 di prendere una decisione informata, inducendole pertanto a prendere una decisione che non avrebbero altrimenti preso, in un modo che provochi o possa ragionevolmente provocare a tale persona, a un\u2019altra persona o a un gruppo di persone un danno significativo;<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio o l\u2019uso di un sistema di IA che sfrutta le vulnerabilit\u00e0 di una persona fisica o di uno specifico gruppo di persone, dovute all\u2019et\u00e0, alla disabilit\u00e0 o a una specifica situazione sociale o economica, con l\u2019obiettivo o l\u2019effetto di distorcere materialmente il comportamento di tale persona o di una persona che appartiene a tale gruppo in un modo che provochi o possa ragionevolmente provocare a tale persona o a un\u2019altra persona un danno significativo;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio o l\u2019uso di sistemi di IAper la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalit\u00e0 note, inferite o previste, in cui il punteggio sociale cos\u00ec ottenuto comporti il verificarsi di uno o di entrambi gli scenari seguenti:<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;<\/li>\n\n\n\n<li>un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravit\u00e0;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio per tale finalit\u00e0 specifica o l\u2019uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalit\u00e0; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un\u2019attivit\u00e0 criminosa, che si basa gi\u00e0 su fatti oggettivi e verificabili direttamente connessi a un\u2019attivit\u00e0 criminosa;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio per tale finalit\u00e0 specifica o l\u2019uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio per tale finalit\u00e0 specifica o l\u2019uso di sistemi di IA per inferire le emozioni di una persona fisica nell\u2019ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l\u2019uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019immissione sul mercato, la messa in servizio per tale finalit\u00e0 specifica o l\u2019uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; tale divieto non riguarda l\u2019etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o della categorizzazione di dati biometrici nel settore delle attivit\u00e0 di contrasto;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>l\u2019uso di sistemi di identificazione biometrica remota \u00abin tempo reale\u00bb in spazi accessibili al pubblico a fini di attivit\u00e0 di contrasto a meno che, e nella misura in cui, tale uso sia strettamente necessario per uno degli obiettivi seguenti:<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>la ricerca mirata di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonch\u00e9 la ricerca di persone scomparse;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l\u2019incolumit\u00e0 fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;<\/li>\n\n\n\n<li>la localizzazione o l\u2019identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un\u2019indagine penale, o dell\u2019esercizio di un\u2019azione penale o dell\u2019esecuzione di una sanzione penale per i reati di cui all\u2019allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libert\u00e0 della durata massima di almeno quattro anni.<\/li>\n<\/ul>\n\n\n\n<p><strong>Qual \u00e8 l\u2019ambito di applicazione delle Linee Guida?<\/strong><\/p>\n\n\n\n<p>Le linee guida mirano a garantire l\u2019applicazione coerente, efficace e uniforme dell\u2019AI Act in tutta l\u2019Unione europea.<\/p>\n\n\n\n<p>Nonostante <strong>le Linee Guida<\/strong> forniscono preziosi dettagli interpretativi dei divieti da parte della Commissione, esse <strong>non costituiscono atti vincolanti<\/strong>, considerate peraltro le competenze riservate alla Corte di giustizia dell\u2019Unione europea (CGUE) per garantire l\u2019uniforme applicazione ed interpretazione della normativa europea.<\/p>\n\n\n\n<p>In ogni caso, le Linee Guida presentano importanti <strong>vantaggi<\/strong>: esse forniscono spiegazioni, ma soprattutto <strong>esempi pratici<\/strong> per aiutare le parti interessate a comprendere e rispettare i requisiti dell\u2019AI Act, per contribuire alla creazione di un panorama di IA sicuro ed etico.&nbsp;<\/p>\n\n\n\n<p>L\u2019applicazione dell\u2019articolo 5 della legge sull\u2019AI richieder\u00e0 una valutazione caso per caso, tenendo debitamente conto della situazione specifica. Pertanto, gli esempi forniti nelle Linee Guida sono meramente indicativi e non pregiudicano la necessit\u00e0 di tale valutazione in ciascun caso.<\/p>\n\n\n\n<p>Nel complesso, le linee guida forniscono una panoramica ampia sull\u2019ambito applicativo (oggettivo e soggettivo) dell\u2019AI Act, soffermandosi su una serie di pratiche vietate menzionate all\u2019articolo 5, paragrafo 1, come la manipolazione dannosa, il punteggio sociale e l\u2019identificazione biometrica remota in tempo reale.<\/p>\n\n\n\n<p>Pertanto, le Linee Guida si soffermano:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Pratiche vietate ai sensi dell\u2019articolo 5, paragrafo 1, <strong>lett.e):<\/strong> attivit\u00e0 di <strong>scraping non mirato<\/strong> di immagini facciali da internet o da filmati di telecamere a circuito chiuso;<\/li>\n\n\n\n<li>Pratiche vietate ai sensi dell\u2019articolo 5, paragrafo 1, <strong>lett.f): <\/strong>attivit\u00e0 di <strong>tracking e di riconoscimento delle emozioni;<\/strong><\/li>\n\n\n\n<li>Pratiche vietate ai sensi dell\u2019articolo 5, paragrafo 1, <strong>lett.g): sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a particolari categorie di dati personali;<\/strong><\/li>\n\n\n\n<li>Pratiche vietate ai sensi dell\u2019articolo 5, paragrafo 1, <strong>lett.h): <\/strong>sistemi di identificazione biometrica remota \u00abin tempo reale\u00bb per la realizzazione di obiettivi di cd. \u201cLaw Enforcement\u201d.<\/li>\n<\/ul>\n\n\n\n<p>Quanto all\u2019ambito di applicazione soggettivo, l\u2019AI Act distingue tra diverse categorie di operatori in relazione ai differenti sistemi regolati. In particolare, il Regolamento distingue e definisce all\u2019articolo 3:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Il \u00abfornitore\u00bb: una persona fisica o\u00a0giuridica, un\u2019autorit\u00e0 pubblica, un\u2019agenzia o\u00a0un altro organismo che sviluppa un sistema di IA o\u00a0un modello di IA per finalit\u00e0 generali o\u00a0che fa sviluppare un sistema di IA o\u00a0un modello di IA per finalit\u00e0 generali e\u00a0immette tale sistema o\u00a0modello sul mercato o\u00a0mette in servizio il sistema di IA con il proprio nome o\u00a0marchio, a\u00a0titolo oneroso o\u00a0gratuito;<\/li>\n\n\n\n<li>\u00abdeployer\u00bb: una persona fisica o giuridica, un\u2019autorit\u00e0 pubblica, un\u2019agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorit\u00e0, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un\u2019attivit\u00e0 personale non professionale;<\/li>\n\n\n\n<li>\u00abrappresentante autorizzato\u00bb: una persona fisica o giuridica ubicata o stabilita nell\u2019Unione che ha ricevuto e accettato un mandato scritto da un fornitore di un sistema di IA o di un modello di IA per finalit\u00e0 generali al fine, rispettivamente, di adempiere ed eseguire per suo conto gli obblighi e le procedure stabiliti dal presente regolamento;<\/li>\n\n\n\n<li>\u00abimportatore\u00bb: una persona fisica o giuridica ubicata o stabilita nell\u2019Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo;<\/li>\n\n\n\n<li>\u00abdistributore\u00bb: una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall\u2019importatore, che mette a disposizione un sistema di IA sul mercato dell\u2019Unione;<\/li>\n\n\n\n<li>\u00aboperatore\u00bb: un fornitore, un fabbricante del prodotto, un deployer, un rappresentante autorizzato, un importatore o un distributore.<\/li>\n<\/ul>\n\n\n\n<p>Come precisato dalla Commissione europea, le Linee Guida si concentreranno solo sui <strong>fornitori<\/strong> e sui <strong>deployer<\/strong>, ai sensi dell\u2019articolo 3, paragrafo 1, n.3)e 4).<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p class=\"is-style-info\">Di\u00a0<strong>Alessia Palladino<\/strong><br><em>Assegnista di ricerca e Cultore della Materia in \u00abInformatica giuridica\u00bb e \u00abComputer Law\u00bb\u00a0 presso l\u2019Universit\u00e0 degli Studi di Cagliari<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n","protected":false},"excerpt":{"rendered":"<p>La Commissione europea ha pubblicato le Linee Guida sulle pratiche vietate in materia di Intelligenza Artificiale. Le Linee Guida presentano importanti vantaggi: esse forniscono spiegazioni, ma soprattutto esempi pratici per aiutare le parti interessate a comprendere [&hellip;]<\/p>\n","protected":false},"author":9973,"featured_media":837,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","footnotes":""},"categories":[4],"tags":[33,9,7,15,6,5,16],"class_list":["post-1082","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-chatbot","tag-copyright","tag-diritto","tag-diritto-dautore","tag-generativeia","tag-ia","tag-intelligenza-artificiale"],"_links":{"self":[{"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/posts\/1082","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/users\/9973"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/comments?post=1082"}],"version-history":[{"count":1,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/posts\/1082\/revisions"}],"predecessor-version":[{"id":1084,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/posts\/1082\/revisions\/1084"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/media\/837"}],"wp:attachment":[{"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/media?parent=1082"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/categories?post=1082"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.unica.it\/holmes\/wp-json\/wp\/v2\/tags?post=1082"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}