Giornale on-line fondato nel 2004

Mercoledì, 09 Lug 2025

I modelli di Intelligenza Artificiale Generativa, come ChatGPT, non vengono programmati riga per riga, come si fa con i software tradizionali. Imparano da soli analizzando grandi quantità di dati, testi e informazioni.

In pratica, non eseguono istruzioni precise scritte da un programmatore, ma si addestrano a riconoscere schemi e a generare risposte basandosi su ciò che hanno imparato. È un cambiamento importante: si passa da una logica “programmata” a una logica “addestrata”. Questo li rende straordinariamente potenti, ma anche difficili da decifrare.

Il risultato?

Sistemi che si comportano come vere e proprie “black box” (scatole nere) producono risposte, ma senza che sia chiaro come ci siano arrivati o perché abbiano scelto proprio quelle.

Con milioni – spesso miliardi – di parametri che interagiscono in modi opachi anche agli esperti, comprendere davvero cosa accade “dentro” questi modelli è una delle sfide più urgenti della tecnologia contemporanea.

Cos’è una “black box” riferita a un sistema di IA ?

Un sistema è considerato una scatola nera quando:
• le sue decisioni non sono spiegabili in modo comprensibile.
• il suo funzionamento interno non è accessibile o interpretabile da esseri umani,
• l’output non può essere ricondotto a regole chiare e trasparenti.

Perché dovremmo preoccuparcene?

• Fiducia e trasparenza: se non capiamo come funziona l’IA, è difficile fidarsi delle sue decisioni.
• Responsabilità: in settori delicati come medicina, giustizia o finanza, sapere chi o cosa ha preso una decisione è fondamentale.
• Bias e discriminazioni: se i modelli apprendono dai dati, rischiano di replicarne (o amplificarne) i pregiudizi. E senza trasparenza, accorgersene o correggerli diventa quasi impossibile.

Alcuni esempi concreti

• Colloqui di lavoro: un algoritmo seleziona i candidati, ma non è chiaro in base a quali criteri → rischio di esclusioni ingiustificate.
• Veicoli autonomi: in caso di incidente, può risultare impossibile ricostruire il processo decisionale del sistema.
• Credito bancario: un prestito viene rifiutato, ma il cliente non riceve spiegazioni comprensibili → mancanza di tutela e diritto di replica.

Verso un’Intelligenza Artificiale spiegabile (XAI)

Per affrontare il problema della black box, la ricerca sta sviluppando tecniche di Explainable AI (XAI), volte a rendere interpretabili anche i modelli più complessi.
Anche le istituzioni si stanno muovendo:
• AI Act (UE): impone requisiti di trasparenza per i sistemi ad alto rischio.
• GDPR: garantisce il diritto a ottenere spiegazioni significative per decisioni automatizzate.
• Linee guida etiche (OCSE, UNESCO): promuovono tracciabilità, auditabilità e responsabilità.

Conclusioni

La “black box” dell’IA generativa è uno degli ostacoli principali a un’adozione consapevole e responsabile dell’intelligenza artificiale.

Rendere questi sistemi più trasparenti non è solo un obiettivo tecnologico: è una priorità etica e sociale. Solo così potremo usare l’IA con maggiore sicurezza, equità e consapevolezza.

Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/
Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Ti piace l'informazione del Foglietto?

Se ti piace quello che leggi, puoi aiutarci a continuare il nostro lavoro sostenendoci con quanto pensi valga l'informazione che hai ricevuto. Anche il costo di un caffè!

SOSTIENICI

empty alt

No dazi ma politiche fiscali per correggere gli squilibri commerciali

A volte, poche parole bastano ad esprimere verità profonde. E quando la Bis, in un approfondimento dedicato agli...
empty alt

Vandana Shiva, teorica più nota di una nuova scienza: l'ecologia sociale

Vandana Shiva, fisica quantistica ed economista, dirige il Centro per la Scienza, Tecnologia e...
empty alt

Presentato a Roma il XV rapporto di Avviso Pubblico "Amministratori sotto tiro"

Nella sala "Walter Tobagi" della Federazione nazionale della stampa italiana è stato presentato...
empty alt

Tumori neuroendocrini polmonari, effettuato primo intervento di chirurgia radioguidata

Presso l’Azienda ospedaliero-universitaria Sant’Andrea di Roma, UOC Chirurgia toracica, diretta da...
empty alt

Pianeta terra surriscaldato, esondazioni che diventano una "nuova normalità"

Pianeta terra surriscaldato: oggi notizie drammatiche sulla improvvisa piena devastante ed...
empty alt

Referendum 2025, sorprese dall’analisi dei flussi elettorali rispetto al reddito

L’analisi dei flussi elettorali rispetto al reddito fornisce interessanti spunti di riflessione...
Back To Top