Salta al contenuto principale

Fidarsi dell'AI

La corsa dell'AI sta per raggiungere la velocità della luce: in soli tre giorni il panorama tecnologico mondiale ha assistito all'arrivo di Claude 3 in Europa , all'annuncio di GPT-4o e alla presentazione di Project Astra alla conferenza I/O di Google.  L'entusiasmo e la frenesia si traducono in un utilizzo estensivo di ogni modello di intelligenza artificiale e in ingenti investimenti sull'AI - nel 2023, più di 10 miliardi di dollari - capaci di risollevare settori come il cloud computing

Tutto questo sposta in secondo piano un dettaglio importante ma troppo spesso ignorato: l'AI richiede fiducia. Quando una persona usa un'AI, non fa che delegare ad una macchina un compito che altrimenti sarebbe stato affidato a esseri umani qualificati. Ma tra l'una e gli altri c'è un divario che l'utente colma con la propria fiducia, riposta nelle capacità della macchina, consapevolmente o meno. Tale divario è considerabile come l'insieme dei rischi associati all'AI, sia reali che soltanto percepiti. Tra questi, la disinformazione e le allucinazioni, la questione della "scatola nera" e della trasparenza, l'impatto ambientale, l'impatto lavorativo, le preoccupazioni etiche e i bias nell'addestramento, per dirne alcuni.

Una buona quantità di questi problemi è perfettamente risolvibile, come le allucinazioni e la disinformazione, sempre meno presenti negli output dei modelli grazie ai passi da gigante della comunità scientifica. Altri, invece, saranno sfide ciclicamente sempre presenti ed è necessario conoscerle per fare un uso consapevole di questa utilissima e potentissima tecnologia. Nel presente articolo considereremo per questo gli aspetti dell'etica e della trasparenza dell'AI.

Intelligenza trasparente: la questione della "scatola nera"

La trasparenza nell'utilizzo dell'AI è essenziale per creare fiducia negli utenti. Tuttavia, molte aziende tendono a mantenere segreti alcuni dettagli dei loro algoritmi per proteggere i loro vantaggi competitivi e la proprietà intellettuale. Essere trasparenti significa, per esempio, informare l'utente che sta interagendo con un'AI, illustrare i ragionamenti interni compiuti dalla macchina prima di rispondere o mostrare da dove provengono i dati di addestramento dei modelli.

Anche le famose AI "open-source" hanno i loro limiti, poiché le aziende possono ancora nascondere informazioni importanti come parte dei dati utilizzati per addestrare i modelli, il codice usato per pre-elaborarli o l'architettura del modello stesso. Si parla di "scatola nera" in riferimento ai sistemi di AI, soprattutto quelli non open source, proprio per queste ambiguità interne.

Le principali normative, come l'AI Act della nostra UE, impongono determinati standard di trasparenza, ma la sfida sempre presente è che gli incentivi per le aziende sviluppatrici di AI  incoraggiano a ridurre al minimo la trasparenza per preservare i vantaggi competitivi. 

Etica artificiale

La maggioranza degli utenti ritiene fondamentale che gli algoritmi AI vengano abbinati a linee guida etiche, al di là dei soli aspetti matematici e dei dati. Ci sono stati vari tentativi di stabilire criteri etici universali per lo sviluppo dell'intelligenza artificiale, come i principi di Asilomar, che includono, tra le altre cose, valori umani, libertà e privacy e la condivisione dei benefici della tecnologia. Tuttavia, ci sono alcuni ostacoli a tali sforzi. 

Innanzitutto, gli ideali etici non sono universali. Ad esempio, UE e Cina interpretano in modo diverso concetti come "libertà e privacy". In Europa la libertà di parola è fondamentale, mentre la Cina tende a moderare ciò che è in conflitto con il “bene comune”.  

In secondo luogo, gli organismi transnazionali apolitici, cioè le principali istituzioni che si occupano di etica e diritti umani, hanno poteri decisamente limitati sullo sviluppo dell'AI. L'ONU, per esempio, ha formulato alcuni principi etici dell'AI coerenti con il suo statuto e l'UNESCO ha riunito alcune aziende per un'AI più etica. Ma il loro potere rimane comunque limitato, dal momento che la maggior parte della ricerca riguarda il settore privato.

Infine, c'è un problema umano più che tecnologico: le considerazioni etiche sono spesso in contrasto con  gli obiettivi di profitto e i vantaggi competitivi delle aziende leader. A questo si aggiungono anche tensioni politiche: la diversità politica all'interno dei team di supervisione etica è fondamentale, ma difficile da raggiungere. Il tentativo di Google di formare un consiglio consultivo sull'etica dell'AI è fallito a causa delle obiezioni dei dipendenti riguardo alla nomina del presidente della Heritage Foundation, che ha posizioni di destra. Ma gli esempi storici di conflitti interni e politici sono numerosi: le tensioni all'interno del consiglio di amministrazione di OpenAI e Sam Altman di fine 2023, il tentativo fallito di separare DeepMind da Google o il crollo di Stability AI.

Molte questioni, come già rilevato, saranno probabilmente presto risolte, ma i dilemmi etici nell'AI dipendono dal contesto umano prima ancora che tecnologico e per questo continueranno ad essere una presenza costante nello sviluppo dell'AI. 

Fonte