Intelligenza Artificiale, dagli USA nuove forme di regolamentazione

Intelligenza Artificiale, dagli USA nuove forme di regolamentazione

L’Executive Order in sintesi

Il 30 ottobre 2023, il Presidente degli Stati Uniti Biden ha emesso uno storico ordine esecutivo, per garantire che il paese fosse all’avanguardia nel cogliere le opportunità, ma soprattutto per gestire i potenziali rischi dell’intelligenza artificiale (AI). 

Nel complesso, l’ordine esecutivo si basa sulle precedenti azioni intraprese dal presidente, compreso il lavoro che ha portato all’impegno volontario di 15 aziende leader per promuovere uno sviluppo sicuro e affidabile dell’intelligenza artificiale.

I principali obiettivi dell’Ordine Esecutivo mirano, in particolare, a:

  1. Stabilire nuovi standard per la sicurezza e la protezione dell’IA. Le principali linee di azione sono finalizzate a:
    • Richiedere che gli sviluppatori dei sistemi di intelligenza artificiale più potenti condividano i risultati dei test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti. Questa misura si propone in continuità con i contenuti del Defense Production Act. L’obiettivo è quello di inibire la circolazione di prodotti pericolosi qualora presentino rischi per la sicurezza nazionale e per l’incolumità pubblica. Per tali ragioni, l’ordinanza richiederà che tutte le aziende che sviluppano sistemi in grado di rappresentare un serio rischio per la sicurezza nazionale, la sicurezza economica nazionale o la salute e l’incolumità pubblica nazionale, debbano informare il governo federale durante la formazione del modello e devono condividere i risultati di tutti i test di sicurezza.
    • Sviluppare standard, strumenti e test per garantire che i sistemi di intelligenza artificiale siano sicuri, protetti e affidabili.
    • Proteggersi dai rischi derivanti dall’utilizzo dell’intelligenza artificiale per progettare materiali biologici pericolosi  sviluppando nuovi e forti standard per lo screening della sintesi biologica. 
    • Proteggere gli americani dalle frodi e dagli inganni basati sull’intelligenza artificiale, stabilendo standard e migliori pratiche per rilevare i contenuti generati dall’intelligenza artificiale e autenticare i contenuti ufficiali.
    • Stabilire un programma avanzato di sicurezza informatica per sviluppare strumenti di intelligenza artificiale per individuare e correggere le vulnerabilità.
    • Ordinare lo sviluppo di un memorandum sulla sicurezza nazionale che diriga ulteriori azioni su intelligenza artificiale e sicurezza

2. Proteggere la privacy degli americani.

Se, da un lato, il Presidente invita il Congresso ad approvare una legislazione bipartisan sulla privacy dei dati, per proteggere tutti gli americani, dall’altro individua una serie di linee di intervento ritenute essenziali:

  • Proteggere la privacy degli americani, dando priorità alla collaborazione a livello federale per accelerare lo sviluppo e l’uso di tecniche di tutela della privacy;
  • Rafforzare la ricerca e le tecnologie che preservano la privacy;
  • Valutare il modo in cui le agenzie raccolgono e utilizzano le informazioni disponibili in commercio , comprese le informazioni che ottengono dai data broker, e  rafforzare le linee guida sulla privacy affinché le agenzie federali  tengano conto dei rischi dell’IA;
  • Sviluppare linee guida per le agenzie federali per valutare l’efficacia delle tecniche di tutela della privacy.

3. Promuovere l’equità e i diritti civili.

Sul punto si osserva che già in passato l’amministrazione Biden-Harris fosse intervenuta sul punto: celebre, al riguardo, è la pubblicazione del  progetto per una Carta dei diritti dell’intelligenza artificiale; al contempo, per complementare gli interventi, fu emesso un  un ordine esecutivo finalizzato alla lotta contro la discriminazione algoritmica da parte delle agenzie.

Le ulteriori linee di azione tracciate si propongono di:

  • Fornire indicazioni chiare ai proprietari, ai programmi di benefit federali e agli appaltatori federali;
  • Affrontare la discriminazione algoritmica  attraverso la formazione, l’assistenza tecnica e il coordinamento tra il Dipartimento di Giustizia e gli uffici federali per i diritti civili;
  • Garantire l’equità nel sistema della giustizia penale .

Ulteriori obiettivi dell’Executive Order

Accanto a questi primi tre principali obiettivi, che potremmo definire di sistema per l’impatto dell’IA, l’Executive Order si sofferma su ulteriori aspetti. In particolare, sono proposte ulteriori azioni per:

4. difendere i consumatori e i lavoratori;

5. promuovere l’innovazione e la concorrenza;

6. potenziare leadership americana nel mondo e altro ancora.

Executive Order Vs AI Act. Quali differenze sulla governance?

L’Executive Order si pone in linea di continuità con i più recenti approdi normativi registrati a livello europeo. Infatti, tale atto è stato pubblicato in concomitanza con l’accordo dei leader del G7 sui principi guida e il Codice di condotta sull’intelligenza artificiale. Accanto ai profili di innovatività e di presupposti programmatici d’intervento, l’Executive Order rappresenta altresì l’occasione per riflettere su ulteriori profili di interesse, soprattutto in relazione ai più recenti approdi normativi e di policy registrati a livello europeo.

In particolare, desta particolare interesse valutare la governance soggettiva, al fine di valutare l’ecosistema soggettivo che ruota attorno alla regolamentazione, vigilanza e controllo dei sistemi di IA.

Sul punto, si registra una significativa differenza rispetto all’AI Act europeo. Infatti, l’Executive Order utilizza e richiama strutture e organismi giuridici, come ad esempio il NIST (National Institute of Standards and Technology). In questo senso, opta per l’allocazione di funzioni e competenze sulle attuali Agenzie esistenti, piuttosto che implementare un nuovo quadro generale. Questo aspetto, senza dubbio, evidenzia una profonda differenza rispetto alla legge sull’AI.

Quanto, invece, alla governance oggettiva, l’Executive Order non risulta adottare il medesimo approccio procedurale dell’AI Act, soprattutto per i cd. sistemi ad alto rischio. Per altri versi, inoltre, taluni profili sulla regolazione di aspetti cruciali – come la regolamentazione della circolazione dei dati, ma soprattutto sulla trasparenza – risultano più carenti dell’AI Act.

Al contrario, l’Executive Order pone significativa enfasi sulle esigenze di sviluppare un’intelligenza artificiale sicura, protetta, nonché di valorizzare le infrastrutture, elementi che la legge sull’AI è parzialmente carente.

Nel complesso, in sintesi, l’Executive Order offre utili spunti di riflessione, giacché tende ad allinearsi con i contenuti condivisi in vista del testo finale della normativa europea sull’AI.

Credits:Canva.com – Blue Planet Studio