ICT4Law&Forensics Laboratorio di "Diritto dell’Informatica" e di "Informatica Forense" del DIEE di Cagliari

Intelligenza Artificiale, la Commissione europea lancia una consultazione sui “Principi guida”

La scorsa settimana la Commissione Europea ha lanciato una consultazione pubblica sui “Principi guida internazionali per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale” (cd. International Draft Guiding Principles for Organizations Developing Advanced #AI systems), elaborati in ambito europeo con la consultazione dei singoli Ministri nazionali del G7 in ambito digitale.

Il Documento si propone come un elenco non esaustivo di principi guida, elaborati in considerazione dei differenti livelli di rischio dell’IA, che verrà discusso ed elaborato nel vivo a seguito della consultazione pubblica.

Dal punto di vista sistematico, gli undici Principi si ricollegano a quelli già elaborati dall’OCSE sull’IA, in risposta ai recenti sviluppi in materia di intelligenza artificiale; essi hanno lo scopo di aiutare a cogliere i benefici e ad affrontare i rischi e alle sfide poste dalle tecnologie di intelligenza artificiale.

Per tali ragioni, questi principi dovrebbero applicarsi a tutti gli attori dell’IA, quando e ove applicabile, al fine di regolare tutte le fasi di progettazione, sviluppo, diffusione e d’uso di sistemi avanzati di IA.

Di seguito si condividono gli undici principi guida, commisurati ai rischi:
1. Adottare misure adeguate durante lo sviluppo dei sistemi avanzati di IA, anche prima e durante la loro implementazione e collocazione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell’IA.

2. Identificare e mitigare le vulnerabilità e, ove appropriato, gli incidenti e modelli di abuso, dopo la diffusione, compresa l’immissione sul mercato.

3. Segnalare pubblicamente le capacità, i limiti e gli ambiti di applicazione dei sistemi di intelligenza artificiale avanzati, l’uso appropriato e inappropriato, per sostenere la garanzia di una trasparenza sufficiente.

4.Adoperarsi per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di IA, anche con l’industria, governi, società civile e mondo accademico.

5. Sviluppare, implementare e divulgare la governance dell’IA e la gestione del rischio politiche, basate su un approccio basato sul rischio, comprese le politiche sulla privacy, e misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi di IA avanzati.

6. Investire e implementare solidi controlli di sicurezza, inclusa la sicurezza fisica, la sicurezza informatica e le tutele contro le minacce interne durante tutto il ciclo di vita dell’IA.

7. Sviluppare e distribuire autenticazione e provenienza affidabili dei contenuti, meccanismi come watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’intelligenza artificiale.

8. Dare priorità alla ricerca per mitigare i rischi sociali e per la sicurezza e definire le priorità di investimenti in misure di mitigazione efficaci.

9. Dare priorità allo sviluppo di sistemi di intelligenza artificiale avanzati per affrontare le sfide più cruciali a livello globale, in particolare, ma non solo, la crisi climatica, la salute globale e la crisi climatica formazione scolastica.

10. Promuovere lo sviluppo e, ove appropriato, l’adozione di norme tecniche internazionali appropriate.

11. Implementare controlli e audit adeguati sull’immissione dei dati.


Di Alessia Palladino
Assegnista di ricerca e Cultore della Materia in «Informatica giuridica» e «Computer Law»  presso l’Università degli Studi di Cagliari