ICT4Law&Forensics Laboratorio di "Diritto dell’Informatica" e di "Informatica Forense" del DIEE di Cagliari

Ontologia della Scelta e della Decisione


Sommario: 1. Prefazione – 2. Il meccanismo – 3. L’erosione quotidiana – 4. La finzione dell’human-in-the-loop – 5. La logica economica – 6. Perché questo è rilevante – 7. La questione centrale – 8. Nuove Architetture Decisionali – 9. Fonti e citazioni

1. Prefazione

La migrazione del potere decisionale dagli esseri umani ai sistemi complessi è ormai la realtà operativa della vita digitale quotidiana e, la maggior parte delle persone, non si accorge che stia accadendo.

Prima di esaminare i meccanismi attraverso cui tale migrazione si realizza, è necessario chiarire una distinzione fondamentale che costituisce la premessa analitica di quanto segue: scelta e decisione non coincidono ontologicamente.

La scelta è un atto reattivo che opera all’interno di uno spazio di possibilità già costituito. Scegliere tra A, B e C presuppone che qualcuno o qualcosa abbia già determinato che A, B e C siano le opzioni rilevanti o, quantomeno, quelle che verranno mostrate in ultima istanza. La scelta avviene all’interno di un campo perimetrato.

La decisione, al contrario, ha natura costitutiva: determina quali sono le opzioni, cosa merita considerazione, quale orizzonte di possibilità è rilevante. Decidere significa stabilire i confini entro cui, successivamente, avverrà la scelta. Chi controlla la decisione controlla quale mondo di opzioni diventa visibile.

Si converrà che non ci troviamo di fronte a una distinzione meramente terminologica. È una differenza di livello nell’esercizio del potere decisionale; oserei dire che la distinzione ha carattere identitario. 

Un soggetto che può solo scegliere all’interno di confini decisi da altri possiede un’autonomia cognitiva ridotta, anche se formalmente “libero” di scegliere. La libertà di selezione non compensa la perdita della capacità costitutiva. Questa limitazione è particolarmente insidiosa perché non è percepita come tale. Il soggetto può sentirsi cognitivamente autonomo perché sta effettivamente valutando, comparando, riflettendo, ma lo sta facendo in uno spazio già delimitato. È autonomo dentro i confini, ma non rispetto a questi.

Il fenomeno documentato nelle pagine seguenti descrive esattamente questa scissione: gli algoritmi decidono, cosa appare, in quale ordine, con quale peso, quali impostazioni di fabbrica sono attive.

Gli utenti scelgono, tra ciò che è stato reso visibile, secondo l’ordine imposto, lungo i percorsi resi più fluidi. La “migrazione dell’agency” non elimina la scelta. Trasferisce la decisione su cosa scegliere. E, in questo trasferimento, l’autonomia viene compromessa prima ancora che la scelta venga esercitata.

2. Il meccanismo

Principalmente quattro meccanismi rendono possibile lo spostamento architetturale che abbiamo discusso in precedenza, una migrazione del punto di origine dall’umano al sistema. 

Le impostazioni predefinite come arbitri silenziosi. Quando una piattaforma preseleziona un’opzione, sfrutta il bias dello status quo: gli esseri umani resistono alla modifica delle impostazioni preconfigurate anche quando consapevoli del bias. I sistemi europei di donazione degli organi dimostrano questa asimmetria. I paesi in cui l’adesione alla donazione degli organi è volontaria, raggiungono il 10-20% di partecipazione. I paesi in cui la donazione degli organi è automatica e l’uscita dal programma necessita di una manifestazione esplicita della volontà dell’individuo, raggiungono l’80-90%.

L’unica variabile è l’impostazione predefinita.

Negli strumenti digitali, le impostazioni predefinite proliferano invisibilmente. Gmail elimina email senza revisione dell’utente. Le piattaforme social preimpostano le opzioni per massimizzare la condivisione dei dati. I servizi di streaming abilitano l’autoplay. I siti di e-commerce preselezionano spedizioni premium e iscrizioni. In ciascun caso, il sistema ha deciso, e l’utente deve compiere uno sforzo per invertire la scelta.

Le raccomandazioni come gerarchizzazioni preventive. Netflix riporta che l’80% dell’attività di visione origina da suggerimenti algoritmici. L’algoritmo “Per Te” di TikTok genera 95 minuti di utilizzo quotidiano medio per utente.

Il meccanismo è una restrizione attraverso l’amplificazione. Le raccomandazioni aumentano le opzioni visibili ma diminuiscono l’effettiva diversità di consumo. Le gerarchizzazioni algoritmiche creano cascate di popolarità. Gli elementi suggeriti precocemente accumulano engagement, rafforzando il loro posizionamento. Gli utenti vedono varietà ma, all’atto pratico, consumano da un sottoinsieme curato.

Amazon esemplifica questo. I cambiamenti nelle preferenze dei consumatori modificano le classifiche minimamente (meno dello 0,3%), ma l’identità del venditore, se Amazon possiede il prodotto, le modifica drasticamente. Il sistema ottimizza per il profitto della piattaforma.

Il sequestro neurobiologico attraverso ricompense variabili. Nel corpo umano, la dopamina viene rilasciata quando una ricompensa diventa possibile. Gli schemi di ricompensa variabile producono risposte più forti rispetto a quelli prevedibili. Questo è il fondamento della dipendenza dal gioco d’azzardo, ora incorporato nei social media (ma che si sta anche propagando in altri segmenti industriali e non).

Lo “scroll infinito” ha rimosso i segnali di arresto naturali. L’incertezza sostiene l’anticipazione dopaminergica, mantenendo gli utenti in scorrimento senza consapevolezza del tempo. Le notifiche innescano cortisolo e dopamina, condizionando il controllo compulsivo.

L’illusione della scelta attraverso la gerarchizzazione. Lo spostamento più sofisticato non rimuove opzioni: rimodella ciò che appare possibile. Gli algoritmi determinano visibilità e presentazione. Sui siti di e-commerce, gli utenti vedono centinaia di risultati gerarchizzati per popolarità e margini non divulgati. La maggior parte non scorre oltre la prima pagina.

L’algoritmo ha risposto alla domanda “cosa dovrei considerare?” L’utente sceglie da una lista preselezionata, credendo di aver esercitato piena autonomia decisionale. Facebook valuta oltre 100.000 variabili per gerarchizzare i post. I contenuti che confermano convinzioni esistenti si posizionano più in alto, generano engagement, creando bolle filtranti.

3. L’erosione quotidiana

L’email come accesso curato. Gmail elimina messaggi secondo criteri proprietari e opachi. Se un’email legittima viene classificata erroneamente, l’informazione è persa. Gli utenti sperimentano convenienza; in realtà, un sistema ha deciso unilateralmente cosa qualificare come rilevante.

Lo shopping come re-engagement automatizzato. L’e-commerce attiva email di promemoria entro minuti dall’abbandono del carrello. Queste email generano l’87% degli ordini automatizzati pur rappresentando il 2% del volume. L’utente aveva sospeso l’azione; il sistema decide di sollecitare.

Lo streaming come scoperta algoritmica. Il motore di Netflix vale 1 miliardo annui per la fidelizzazione. La “Pagina Per Te” di TikTok è interamente algoritmica, non esiste alternativa di ricerca nell’interfaccia predefinita. Il sistema, non l’utente, è il decisore primario su quali contenuti vengono incontrati.

L’input testuale come espressione anticipata. Il testo predittivo anticipa la parola successiva. Uno studio del 2023 ha rilevato che il 68% degli utenti esperti l’ha disabilitato. Empiricamente è più lento: risparmia 3,43 caratteri ma aggiunge due secondi. Eppure rimane abilitato. Il sistema assume l’autorità di anticipare l’espressione.

4. La finzione dell’human-in-the-loop

Il design “human-in-the-loop”, ovvero quel sistema secondo cui, per proseguire lungo una sequenza di automazione, l’umano è chiamato di tanto in tanto in causa, è presentato come soluzione.

In pratica, istituzionalizza il bias di automazione: fare eccessivo affidamento sulle raccomandazioni delle macchine. I medici approvano l’86% delle raccomandazioni cliniche senza modifiche. L’algoritmo è diventato il punto di partenza predefinito.

Nelle assunzioni, gli algoritmi preselezionano i candidati. La ricerca mostra che vincoli di “rappresentanza equa” fanno poco per migliorare la diversità, anche laddove questa porti un beneficio misurabile, perché gli umani selezionano da elenchi algoritmicamente vincolati riproducendo i bias.

L’umano rimane nel ciclo. Ma il ciclo si è ristretto: l’agency umana opera solo entro confini matematicamente definiti. Il risultato non è “gli umani supervisionano”. E “le macchine filtrano, gli umani approvano meccanicamente”.

5. La logica economica

Le piattaforme ottimizzano per coinvolgimento e ricavi, non per autonomia. Netflix vale 1 miliardo annui perché aumenta il tempo di visione. L’algoritmo è addestrato su metriche di engagement, durata, completamento; non sull’autonomia.

TikTok ottimizza per il tempo speso sull’app. Entro ore, apprende quali contenuti sostengono l’attenzione. Risultato: 95 minuti quotidiani medi. Le email di carrello abbandonato recuperano ricavi ri-coinvolgendo utenti che avevano lasciato l’operazione in sospeso.

Questi obiettivi, engagement, conversione, tempo, sono strutturalmente disallineati con l’autonomia dell’utente. Un sistema ottimizzato per l’autonomia raccomanderebbe meno aggressivamente, ridurrebbe le frizioni per l’opt-out (esclusione), darebbe priorità al controllo dell’utente. Nessuno di questi è incentivato commercialmente né, tanto meno, politicamente.

Lo spostamento dell’agency non è un difetto o un effetto collaterale: è un meccanismo consapevole e volontario di massimizzazione dell’engagement.

6. Perché questo è rilevante

Il costo cognitivo è invisibile perché i percorsi predefiniti sono così privi di frizioni che gli utenti non resistono mai. Non si sentono costretti, sentono di scegliere liberamente. Stanno scegliendo, sì, ma da un insieme pre-curato. L’origine di questo processo è migrata a sistemi che non controllano e di cui non sono a conoscenza.

Questo erode l’autonomia metacognitiva, la capacità di riflettere su ciò che si vuole. Quando i sistemi prevengono queste decisioni, restringono lo spazio per la riflessione. Gli utenti non chiedono “Cosa voglio guardare?” ma “Devo guardare questo suggerimento?”, una deliberazione molto più ristretta.

Nel tempo, questo rimodella le preferenze. Uno studio del 2025 ha rilevato che gli algoritmi creano un'”illusione di competenza”: gli utenti

credono di essere esperti perché gli algoritmi suggeriscono elementi che apprezzano. In realtà, hanno imparato ad apprezzare un sottoinsieme filtrato. Di fatto, sono stati addestrati.

Per i sistemi democratici, le implicazioni aumentano esponenzialmente. Quando le piattaforme curano quali informazioni i cittadini vedono, elevando contenuti coinvolgenti indipendentemente dall’accuratezza, sopprimendo punti di vista, segregando o comprimendo in gruppi omogenei, migrano la capacità di valutare dal cittadino verso sistemi ottimizzati per altri scopi.

Uno studio del 2024 ha rilevato che le raccomandazioni algoritmiche possono aumentare l’esposizione alla diversità politica se programmate per farlo, ma per impostazione predefinita mostrano agli utenti più di ciò che già credono.

7. La questione centrale

Qual è, in ultima istanza, lo scopo della tecnologia nella vita umana? Se il suo compito fosse quello di amplificare l’agency, la capacità dell’individuo di essere il punto d’origine decisionale, orientare e assumersi la responsabilità delle proprie azioni, allora gran parte dei design contemporanei fallirebbe clamorosamente. Essi non potenziano l’autonomia: massimizzano engagement, estrazione di attenzione e profitti. L’essere umano diventa una variabile del sistema, non il suo fine.

In un paradigma alternativo, la tecnologia dovrebbe essere subordinata all’intento umano. In quel contesto l’agency non è un dettaglio etico, ma la variabile pilastro di ogni altro elemento correlato in modo diretto o indiretto. Eppure, ciò che osserviamo è un silenzioso riordinamento: la mediazione algoritmica, presentata come comodità, efficienza, personalizzazione, ribalta la gerarchia. Non siamo più noi a usare gli strumenti; sono gli strumenti a ridefinire il perimetro del possibile per nostro conto.

L’evidenza di questa inversione non è accidentale né sporadica: è sistematica, documentata, deliberata. Le piattaforme sanno che le impostazioni predefinite modellano il comportamento, che le raccomandazioni ancorano le decisioni, che le notifiche frammentano l’attenzione, che l’engagement infinito elimina i segnali di arresto. Nulla di tutto questo è incidentale: sono obiettivi di ottimizzazione, metriche di successo.

Il fatto che questo spostamento sia difficilmente percepibile non ne smentisce l’esistenza. Al contrario, ne certifica la raffinatezza. Un controllo efficace non si manifesta come costrizione, ma come scelta apparente. L’erosione dell’agency non si presenta come perdita, bensì come servizio: più personalizzazione, più convenienza, più opzioni ma, paradossalmente, meno libertà reale. “Consapevolezza e volontarietà” sono assenti: In questo spazio ambiguo, l’autonomia non viene negata: viene lentamente resa irrilevante. 

8. Nuove Architetture Decisionali

Le dinamiche analizzate finora non implicano l’inevitabilità di un esito. Al contrario, mostrano che le architetture decisionali che governano l’interazione uomo–macchina sono tecnicamente configurabili e, dunque, implicitamente normative. Impostazioni predefinite, frizioni operative, segnali di arresto, criteri di ottimizzazione e livelli di trasparenza non sono semplici dettagli implementativi: costituiscono scelte progettuali che determinano, a monte, la distribuzione dell’agency.

Da un punto di vista tecnico, esistono già modalità alternative di progettazione. Le impostazioni predefinite potrebbero riflettere le preferenze dichiarate dell’utente anziché gli incentivi economici della piattaforma. Le frizioni potrebbero essere distribuite simmetricamente tra percorsi predefiniti e non predefiniti, rendendo reversibile una scelta senza richiedere uno sforzo sproporzionato. I cicli di engagement potrebbero includere segnali di arresto deliberati, reintroducendo momenti di riflessione e scelta esplicita. Gli algoritmi di raccomandazione potrebbero essere ottimizzati per criteri diversi dal coinvolgimento immediato, includendo varietà, soddisfazione a lungo termine e benessere cognitivo. Infine, i sistemi potrebbero rendere esplicito quando una gerarchizzazione algoritmica ha già ristretto lo spazio delle opzioni disponibili.

Il fatto che tali configurazioni rimangano marginali non sembra riconducibile a limiti tecnologici, bensì a vincoli strutturali di natura economica, politica, organizzativa e strategica. Questo aspetto è cruciale per qualsiasi riflessione normativa. Le leve che determinano l’effettiva allocazione dell’agency operano a un livello pre-giuridico, incorporato nell’architettura stessa dei sistemi, e risultano spesso invisibili se osservate esclusivamente attraverso categorie normative tradizionali focalizzate sugli output o sui comportamenti osservabili.

Ne deriva una criticità sistemica: interventi regolatori che non tengano conto di tali livelli rischiano di agire ex post, quando la decisione rilevante è già stata presa dal sistema. In assenza di un coordinamento strutturato tra competenze giuridiche, competenze strategiche e tecnico-progettuali, il rischio non è soltanto l’inefficacia della norma, ma la produzione di assetti formalmente conformi e sostanzialmente disallineati dall’obiettivo dichiarato di tutela dell’autonomia intellettuale umana.

In questo senso, la questione non riguarda la legittimità dell’uso di sistemi algoritmici nel supporto decisionale, ma la localizzazione del locus decisionale primario.

Stabilire dove e come tale locus venga definito è una condizione preliminare per qualsiasi intervento normativo che ambisca a incidere sulle cause, e non soltanto sui sintomi, della migrazione dell’agency descritta in questo lavoro.


Fonti e Citazioni

Impostazioni predefinite per la donazione di organi: Johnson, E. J., & Goldstein, D. G. (2003). “Do Defaults Save Lives?” Science, 302(5649), 1338-1339.

Statistiche sui consigli di Netflix: Gomez-Uribe, C. A., & Hunt, N. (2016). “The Netflix Recommender System.” ACM Transactions on Management Information Systems, 6(4), 1-19. Rapporti di settore confermano che la cifra dell’80% rimane attuale al 2024.

Performance delle email per carrelli abbandonati: Omnisend (2024). “E-commerce Statistics Report 2024.” Dati: 87% degli ordini da email automatizzate, 37% delle vendite totali da email provenienti da sequenze per carrelli abbandonati.

Orientamento dei prodotti Amazon: Chen, L., Mislove, A., & Wilson, C. (2024). “An Empirical Analysis of Algorithmic Pricing on Amazon Marketplace.” RAND Journal of Economics. Riscontrata una diminuzione di otto punti percentuali nei consigli di terze parti quando Amazon è esaurito.

Massimi artificiali: Variabilità e frequenza della ricompensa come prerequisiti delle dipendenze comportamentali. Brain Research Bulletin, 196, 156-168, Clark, L., & Zack, M. (2023).

Effetti precoci dell’anticipazione della ricompensa sono modulati dalla stimolazione dopaminergica. PLOS ONE, Abler, B., et al. (2014).

Dopamina nel controllo motivazionale: gratificante, avversiva e di allerta. Bromberg-Martin, E. S., et al. (2010). Neuron, 68(5), 815-834

Algoritmi per la diversità politica: Allen, J., et al. (2024). “Reranking Partisan Animosity in Algorithmic Social Media Feeds Alters Affective Polarization.” Science, 386(6723).

Design dello scorrimento infinito: Raskin, A. (2006). Designer originale dello scorrimento infinito; commenti successivi sugli impatti comportamentali documentati in varie fonti di giornalismo tecnologico (2017-2019).

Performance del testo predittivo: Vertanen, K., & Kristensson, P. O. (2011). “The Imagination of Crowds: Conversational AAC Language Modeling using Crowdsourcing and Large Data Sources.” Cambridge University Engineering Department. Ricerca che mostra come la previsione delle parole aggiunga tempo nonostante risparmi caratteri.

di Simone Dongu
Imprenditore seriale internazionale, specializzato in Business Strategy (University of Virginia). Autore, speaker e progettista di sistemi informatici, sviluppa soluzioni AI/AR/VR per l’automazione aziendale