Giornale on-line fondato nel 2004

Venerdì, 05 Dic 2025

I modelli di Intelligenza Artificiale Generativa, come ChatGPT, non vengono programmati riga per riga, come si fa con i software tradizionali. Imparano da soli analizzando grandi quantità di dati, testi e informazioni.

In pratica, non eseguono istruzioni precise scritte da un programmatore, ma si addestrano a riconoscere schemi e a generare risposte basandosi su ciò che hanno imparato. È un cambiamento importante: si passa da una logica “programmata” a una logica “addestrata”. Questo li rende straordinariamente potenti, ma anche difficili da decifrare.

Il risultato?

Sistemi che si comportano come vere e proprie “black box” (scatole nere) producono risposte, ma senza che sia chiaro come ci siano arrivati o perché abbiano scelto proprio quelle.

Con milioni – spesso miliardi – di parametri che interagiscono in modi opachi anche agli esperti, comprendere davvero cosa accade “dentro” questi modelli è una delle sfide più urgenti della tecnologia contemporanea.

Cos’è una “black box” riferita a un sistema di IA ?

Un sistema è considerato una scatola nera quando:
• le sue decisioni non sono spiegabili in modo comprensibile.
• il suo funzionamento interno non è accessibile o interpretabile da esseri umani,
• l’output non può essere ricondotto a regole chiare e trasparenti.

Perché dovremmo preoccuparcene?

• Fiducia e trasparenza: se non capiamo come funziona l’IA, è difficile fidarsi delle sue decisioni.
• Responsabilità: in settori delicati come medicina, giustizia o finanza, sapere chi o cosa ha preso una decisione è fondamentale.
• Bias e discriminazioni: se i modelli apprendono dai dati, rischiano di replicarne (o amplificarne) i pregiudizi. E senza trasparenza, accorgersene o correggerli diventa quasi impossibile.

Alcuni esempi concreti

• Colloqui di lavoro: un algoritmo seleziona i candidati, ma non è chiaro in base a quali criteri → rischio di esclusioni ingiustificate.
• Veicoli autonomi: in caso di incidente, può risultare impossibile ricostruire il processo decisionale del sistema.
• Credito bancario: un prestito viene rifiutato, ma il cliente non riceve spiegazioni comprensibili → mancanza di tutela e diritto di replica.

Verso un’Intelligenza Artificiale spiegabile (XAI)

Per affrontare il problema della black box, la ricerca sta sviluppando tecniche di Explainable AI (XAI), volte a rendere interpretabili anche i modelli più complessi.
Anche le istituzioni si stanno muovendo:
• AI Act (UE): impone requisiti di trasparenza per i sistemi ad alto rischio.
• GDPR: garantisce il diritto a ottenere spiegazioni significative per decisioni automatizzate.
• Linee guida etiche (OCSE, UNESCO): promuovono tracciabilità, auditabilità e responsabilità.

Conclusioni

La “black box” dell’IA generativa è uno degli ostacoli principali a un’adozione consapevole e responsabile dell’intelligenza artificiale.

Rendere questi sistemi più trasparenti non è solo un obiettivo tecnologico: è una priorità etica e sociale. Solo così potremo usare l’IA con maggiore sicurezza, equità e consapevolezza.

Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/
Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Ti piace l'informazione del Foglietto?

Se ti piace quello che leggi, puoi aiutarci a continuare il nostro lavoro sostenendoci con quanto pensi valga l'informazione che hai ricevuto. Anche il costo di un caffè!

SOSTIENICI

empty alt

Il "Big Beautiful Bill Act" di Trump fa esplodere il debito pubblico Usa

Un corposo paper pubblicato di recente dal NBER ci mette nella condizione di comprendere meglio...
empty alt

Maud Menten: una legge al femminile

Tutti gli studenti di chimica e biochimica incontrano, prima o poi, l’equazione di...
empty alt

UniTrento ospita seminario su “Migrazioni, salvataggi in mare e geografie del Mediterraneo”

Un mare che unisce e divide, che accoglie e respinge, che salva e troppo spesso inghiotte: il...
empty alt

“The Teacher”, film di lotta ispirato a fatti reali sulla tragica realtà palestinese

The Teacher, regia di Farah Nabulsi, con Saleh Bakri (Basem El-Saleh), Imogen Poots (Lisa),...
empty alt

La sfida di Schlein a Meloni? Iniziativa inopportuna

La Schlein lancia la sua sfida a Giorgia Meloni: vengo ad Atreju se a sfidarmi sei tu Giorgia....
empty alt

Ponte sullo Stretto, rese note le motivazioni del disco rosso della Corte dei conti

La Sezione centrale di controllo di legittimità della Corte dei conti ha depositato in data...
Back To Top