Sviluppo e sottosviluppo. Una questione cruciale sull’etica dell’IA

Sviluppo e sottosviluppo. Una questione cruciale sull’etica dell’IA

Stiamo assistendo a una delle rivoluzioni più grandi della storia dell’umanità: tale assunto sembra accomunare la coscienza di studiosi e di gente comune. Benché in parte si presagiscano, le peculiarità e i risvolti pratici di tali trasformazioni ancora ci sfuggono. I modelli di sviluppo offrono prospettive di miglioramento della condizione umana senza precedenti e la comprensione di tali processi diviene determinante per la politica globale. Il G7 svoltosi in Puglia dal 13 al 15 giugno scorso ha richiamato l’attenzione di tutti sull’importanza, nella gestione dell’IA, di linee giuda condivise dalla politica mondiale.

Nondimeno i grandi cambiamenti a cui stiamo assistendo mettono in evidenza non solo le possibilità, ma anche i rischi. I pericoli di una società iperconnessa sono innumerevoli e a vario livello (sociale, relazionale, cognitivo, psichico, ecc.). Mi limito a segnalare due importanti studi tradotti in italiano, per coloro che intendano approfondire il tema. Il primo saggio è del sociologo bielorusso Evgeny Morozov, Internet non salverà il mondo[1], nel quale si mette in discussione l’idea secondo cui la tecnologia, e in particolare internet, risolverà tutti i problemi dell’umanità. Morozov si schiera contro l’ideologia soluzionista, secondo cui la tecnologia darà risposta a ogni problema, è solo una questione di tempo. Il soluzionismo si riverbera nelle diverse sfere della società (politica, istruzione, cultura, giustizia, sanità, ecc.). L’internet-centrismo sostiene che tutti gli aspetti della vita debbano modellarsi su internet. Morozov per contro ritiene che l’unidirezionalità di tale visione non sia capace di fare i conti con la complessità dei problemi umani e sociali, così l’obiettivo di una società tecnologicamente ineccepibile sarà gravida di conseguenze per la libertà umana e per l’autonomia individuale.

A ben vedere tale visione non propone niente di inedito: siamo ritornati al mito del progresso di matrice illuminista, per il quale vale la pena sacrificare tutto in vista di una futura età dell’oro. Quando all’indomani della Seconda Guerra mondiale Winston Churchill fece visita al Massachusetts Institute of Technology di Boston, il direttore dell’istituto, dott. Burchard, dopo aver esaltato i grandi progressi tecnologici, affermò che oramai la civiltà umana era giunta a dominare quasi tutto, programmando pensieri e sentimenti al punto da evitare l’insorgere di un nuovo Hitler[2]. A tale discorso Churchill rispose: «Nel suo discorso introduttivo, il dottor Burchard, decano della Facoltà Umanistica, ha parlato con stupore di “un’abilità quasi scientifica di controllare con precisione i pensieri degli uomini”. Sarei molto felice se il mio compito in questo mondo fosse terminato prima che ciò accada»[3].

Il secondo studio particolarmente ricco e critico nei confronti dell’IA è quello condotto dalla ricercatrice Kate Crawford, Né intelligente né artificiale[4]. Sfidando l’opinione comune, secondo cui si tratta di un campo puramente tecnico e neutrale, l’autrice sostiene che l’IA sia intrinsecamente legata a strutture di potere, influenzata da interessi economici, politici e sociali. L’IA non è né artificiale né intelligente, quanto piuttosto un’industria estrattiva che dipende da risorse naturali, lavoro umano e dati. «I sistemi di IA non sono autonomi o razionali, né in grado di discernere alcunché senza una fase di formazione estensiva ma computazionalmente intensiva con grandi set di dati o regole e ricompense predefinite. In effetti, l’intelligenza artificiale come la conosciamo dipende interamente da un insieme molto più ampio di strutture politiche e sociali»[5]. La Crawford focalizza la sua analisi sugli interessi che muovono i sistemi dell’IA, per i quali questi non sono affatto neutri, ma frutto di un progetto al servizio del potere: «Per capire come l’IA sia fondamentalmente politica, dobbiamo andare oltre le reti neurali e il riconoscimento di modelli (pattern recognition) per chiederci invece che cosa viene ottimizzato, per chi e chi è che decide»[6]. La critica di Crawford non demonizza l’IA, ma stigmatizza il modello attuale, basato sul profitto e sul controllo.

Sorgono così delle questioni essenziali sull’etica dell’IA. Innanzitutto occorre maggiore trasparenza nei processi decisionali degli algoritmi e nell’addestramento di essi. Grande interesse suscita la questione della responsabilità di eventuali danni causati dai sistemi di IA: se sbaglia un professionista è giuridicamente perseguibile, ma se a sbagliare è una macchina, chi paga? L’emergenza di normative più stringenti per le aziende tecnologiche si fa sempre più impellente. L’utilizzo responsabile dell’IA è un problema morale inderogabile agli algoritmi, per il quale si esige una coscienza critica dei suoi limiti e dei potenziali rischi. Detto altrimenti, si palesa l’urgenza della promozione di queste tecnologie per il bene comune, orientando la ricerca verso la giustizia sociale e lo sviluppo sostenibile.

I problemi e le sfide sono enormi e gravide di implicazioni, ma è quanto mai necessario non perdere di vista il fine, in funzione del quale muovere ogni sforzo: lo sviluppo dell’umano nell’uomo. Romano Guardini negli anni ’60 scriveva che «il senso della cultura avvenire consiste nella vincolazione della potenza per opera dell’uomo, il quale vuole esistere nella dignità e nella libertà, in una vivente spontaneità e nella gioia della vita»[7]. E in tal senso Guardini denuncia la mancanza di «una educazione all’uso della potenza», capace di rivelare all’uomo i suoi limiti e di orientare responsabilmente le sue energie[8]. Lo sviluppo nella scienza e della tecnica non ha assicurato all’uomo quella pienezza di civiltà, tanto esaltata dall’età moderna. Tale sviluppo è infatti estremamente ambiguo, se si pensa che nel secolo scorso i genocidi perpetrati dai regimi totalitari e la bomba atomica sono stati possibili solo grazie all’avanzamento tecnico.

Se il progresso tecnico-scientifico non procede insieme al progresso morale, la società soffre di una discrasia che, se non adeguatamente trattata, può avere conseguenze funeste. Edgar Morin ha illustrato così il malessere della società attuale: «Il sottosviluppo degli sviluppati è un sottosviluppo morale, psichico e intellettuale. Esiste senza dubbio una penuria affettiva e psichica più o meno grande in tutte le civiltà, e ovunque ci sono gravi sottosviluppi dello spirito umano. Ma bisogna vedere la miseria mentale delle società ricche, la mancanza d’amore delle società ipernutrite, la meschinità e l’aggressività miserevoli degli intellettuali e degli universitari, la proliferazione di idee generali vuote e di concetti distorti, la perdita della globalità, la perdita del fondamentale e della responsabilità. È una miseria che non si riduce con la diminuzione della miseria fisiologica e materiale, ma che s’accresce al contrario nell’abbondanza e nell’ozio. Si tratta d’uno sviluppo nel sottosviluppo sotto la presa della razionalizzazione, della specializzazione, della quantificazione, dell’astrazione, della irresponsabilità. Tutto ciò suscita lo sviluppo del sottosviluppo etico»[9]. Tale fenomeno rischia di acuirsi nella misura in cui la persona non è cosciente di chi sia veramente e di quale sia il suo ruolo nel mondo, demandando in toto alla macchina decisioni che solo all’uomo spetta prendere. La scienza tace sui fini e suoi valori per il semplice fatto che non è il suo ambito di competenza.

La questione fondamentale resta quella di non confondere i mezzi coi fini. Riconoscere che l’IA è uno strumento potente, dal quale l’uomo può trarre grande giovamento, significa affermare al tempo stesso ciò che essa non è, ovvero non si tratta di un fine per il quale occorre sacrificare l’umano. Il 14 giugno scorso al G7 papa Francesco ha ricordato che «solo se sarà garantita la loro vocazione al servizio dell’umano, gli strumenti tecnologici riveleranno non solo la grandezza e la dignità unica dell’essere umano, ma anche il mandato che quest’ultimo ha ricevuto di “coltivare e custodire” (cfr Gen 2,15) il pianeta e tutti i suoi abitanti. Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica»[10].

Il «sottosviluppo degli sviluppati» si può così arginare grazie alla vigilanza critica sulle potenzialità e sui rischi delle nuove tecnologie. Internet e l’IA sono degli strumenti che favoriscono la crescita di una civiltà, nella misura in cui una regolamentazione giuridica stabilisce delle norme di tutela per chi se ne serve, sanzionando tutti quegli abusi che sostituiscono i mezzi coi fini. Le nuove tecnologie finiscono per dominare chi le ha progettate, laddove siano concepite come entità autonome e come fini per cui sacrificare ogni risorsa. Lo sviluppo tecnologico, se non accompagnato da una profonda riflessione sulla sua dimensione etica e sociale, disumanizza il protagonista, l’uomo, per il quale ogni sviluppo possibile deve essere pensato e realizzato.


Di Luigi Castangia
Docente incaricato di Sacra Scrittura presso la Pontificia Facoltà Teologica della Sardegna; dottore di ricerca in Filosofia, collabora con l’Università degli Studi di Cagliari, dove è Cultore della Materia in «Filosofia dell’Educazione».


[1] E. Morozov, Internet non salverà il mondo. Perché non dobbiamo credere a chi pensa che la Rete possa risolvere ogni problema, Mondadori, Milano 2014.

[2] Cf. L. Giussani, Il senso religioso. Volume primo del PerCorso, Rizzoli, Milano 2010, 106-107.

[3] «In his Introductory address, Dr. Burchard, the Dean of Humanities, spoke with awe of  “an approaching scientific ability to control men’s thoughts with precision.” I shall be very content if my task in this world is done before that happens», W. Churchill, March 31, 1949. Massachusetts Institute of Technology (MIT), Boston, Massachusetts, https://winstonchurchill.org/resources/speeches/1946-1963-elder-statesman/mit-mid-century-convocation.

[4] K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Il Mulino, Bologna 2021.

[5] Ibi, 16.

[6] Ibi, 17. Corsivo nel testo.

[7] R. Guardini, Ansia per l’uomo, Morcelliana, Brescia 2024, 320-321.

[8] «Noi abbiamo bisogno di un’educazione all’uso della potenza. È una inquietante realtà di fatto che tale educazione viene praticata sempre meno dal tempo in cui la potenza dell’uomo ha cominciato a crescere così paurosamente. Oppure esiste una pedagogia che reca alla coscienza dell’uomo quanto egli può e suscita in lui la responsabilità per questo? Che gli insegna i superamenti e le rinunce necessarie per essere libero nell’uso della potenza? […] Tale pedagogia non esiste. Deve essere creata», ibi, 321.

[9] E.-R. Morin – E. Ciurana – R. D. Motta, Educare per l’era planetaria. Il pensiero complesso come metodo di apprendimento, Armando, Roma 2004, 118.

[10] Papa Francesco, Uno strumento affascinante e tremendo, Discorso del 14 giugno 2024 alla sessione comune del vertice del G7, Borgo Egnazia (BR), in https://www.vaticannews.va/it/papa/news/2024-06/papa-discorso-integrale-g7-puglia-intelligenza-artificiale.html.