{"id":346,"date":"2023-10-17T18:08:13","date_gmt":"2023-10-17T16:08:13","guid":{"rendered":"https:\/\/sites.unica.it\/ict4lawforensics\/?p=346"},"modified":"2025-09-15T10:33:31","modified_gmt":"2025-09-15T08:33:31","slug":"intelligenza-artificiale-la-commissione-europea-lancia-una-consultazione-sui-principi-guida","status":"publish","type":"post","link":"https:\/\/sites.unica.it\/ict4lawforensics\/2023\/10\/17\/intelligenza-artificiale-la-commissione-europea-lancia-una-consultazione-sui-principi-guida\/","title":{"rendered":"Intelligenza Artificiale, la Commissione europea lancia una consultazione sui &#8220;Principi guida&#8221;"},"content":{"rendered":"\n<p><strong>La scorsa settimana  <\/strong>la <strong>Commissione Europea <\/strong>ha lanciato una <strong>consultazione<\/strong> pubblica sui \u201c<strong>Principi guida<\/strong> internazionali per le organizzazioni che sviluppano <strong>sistemi avanzati<\/strong> di <strong>intelligenza artificiale<\/strong>\u201d (cd. <em>International <a rel=\"noreferrer noopener\" href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/international-draft-guiding-principles-organizations-developing-advanced-ai-systems\" target=\"_blank\"><strong>Draft<\/strong> <\/a>Guiding Principles for Organizations Developing Advanced <strong>#AI<\/strong> systems<\/em>), elaborati in ambito europeo con la consultazione dei singoli Ministri nazionali del G7 in ambito digitale.<\/p>\n\n\n\n<p>Il Documento si propone come un <strong>elenco non esaustivo di principi guida<\/strong>, <strong>elaborati in considerazione dei differenti livelli di rischio dell&#8217;IA<\/strong>, che verr\u00e0 discusso ed elaborato nel vivo a seguito della consultazione pubblica. <\/p>\n\n\n\n<p>Dal punto di vista sistematico, <strong>gli undici Principi si ricollegano a quelli gi\u00e0 elaborati dall&#8217;OCSE <\/strong>sull&#8217;IA, in risposta ai recenti sviluppi in materia di intelligenza artificiale; essi hanno lo scopo di aiutare a cogliere i benefici e ad affrontare i rischi e alle sfide poste dalle tecnologie di intelligenza artificiale. <\/p>\n\n\n\n<p>Per tali ragioni, questi principi dovrebbero applicarsi a tutti gli attori dell\u2019IA, quando e ove applicabile, al fine di regolare tutte le fasi di progettazione, sviluppo, diffusione e d&#8217;uso di sistemi avanzati di IA.<\/p>\n\n\n\n<p>Di seguito si condividono gli undici principi guida, commisurati ai rischi:<br><em>1. Adottare misure adeguate durante lo sviluppo dei sistemi avanzati di IA, anche prima e durante la loro implementazione e collocazione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell\u2019IA.<\/em><\/p>\n\n\n\n<p><em>2. Identificare e mitigare le vulnerabilit\u00e0 e, ove appropriato, gli incidenti e modelli di abuso, dopo la diffusione, compresa l&#8217;immissione sul mercato.<\/em><\/p>\n\n\n\n<p><em>3. Segnalare pubblicamente le capacit\u00e0, i limiti e gli ambiti di applicazione dei sistemi di intelligenza artificiale avanzati, l&#8217;uso appropriato e inappropriato, per sostenere la garanzia di una trasparenza sufficiente.<\/em><\/p>\n\n\n\n<p><em>4.Adoperarsi per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di IA, anche con l\u2019industria, governi, societ\u00e0 civile e mondo accademico.<\/em><\/p>\n\n\n\n<p><em>5.  Sviluppare, implementare e divulgare la governance dell\u2019IA e la gestione del rischio politiche, basate su un approccio basato sul rischio, comprese le politiche sulla privacy, e misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi di IA avanzati.<\/em><\/p>\n\n\n\n<p><em>6. Investire e implementare solidi controlli di sicurezza, inclusa la sicurezza fisica, la sicurezza informatica e le tutele contro le minacce interne durante tutto il ciclo di vita dell\u2019IA.<\/em><\/p>\n\n\n\n<p><em>7. Sviluppare e distribuire autenticazione e provenienza affidabili dei contenuti, meccanismi come watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall&#8217;intelligenza artificiale.<\/em><\/p>\n\n\n\n<p><em>8. Dare priorit\u00e0 alla ricerca per mitigare i rischi sociali e per la sicurezza e definire le priorit\u00e0 di investimenti in misure di mitigazione efficaci.<\/em><\/p>\n\n\n\n<p><em>9. Dare priorit\u00e0 allo sviluppo di sistemi di intelligenza artificiale avanzati per affrontare le sfide pi\u00f9 cruciali a livello globale, in particolare, ma non solo, la crisi climatica, la salute globale e la crisi climatica formazione scolastica. <\/em><\/p>\n\n\n\n<p><em>10. Promuovere lo sviluppo e, ove appropriato, l&#8217;adozione di norme tecniche internazionali appropriate.<\/em><\/p>\n\n\n\n<p><em>11. Implementare controlli e audit adeguati sull&#8217;immissione dei dati.<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p class=\"is-style-info\">Di\u00a0<strong>Alessia Palladino<\/strong><br><em>Assegnista di ricerca e Cultore della Materia in \u00abInformatica giuridica\u00bb e \u00abComputer Law\u00bb\u00a0 presso l\u2019Universit\u00e0 degli Studi di Cagliari<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n","protected":false},"excerpt":{"rendered":"<p>La scorsa settimana la Commissione Europea ha lanciato una consultazione pubblica sui \u201cPrincipi guida internazionali per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale\u201d (cd. International Draft Guiding Principles for Organizations Developing Advanced #AI systems), [&hellip;]<\/p>\n","protected":false},"author":9973,"featured_media":349,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","footnotes":""},"categories":[1],"tags":[9,11,10,8,12],"class_list":["post-346","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news-ed-eventi","tag-ai","tag-dataprotection","tag-etica","tag-ia","tag-intelligenza_artificiale"],"_links":{"self":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/346","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/users\/9973"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/comments?post=346"}],"version-history":[{"count":3,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/346\/revisions"}],"predecessor-version":[{"id":908,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/346\/revisions\/908"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media\/349"}],"wp:attachment":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media?parent=346"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/categories?post=346"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/tags?post=346"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}