La definizione ufficiale di "AI open source"
L'Open Source Initiative ha rilasciato una nuova definizione standard per determinare se un modello di intelligenza artificiale sia davvero open source.
Dopo anni di discussioni e collaborazioni interne al settore, l'Open Source Initiative (OSI), un'organizzazione dedicata a promuovere software open source, ha finalmente pubblicato la cosiddetta Open Source AI Definition (OSAID). Questa definizione mira a creare uno standard condiviso su cosa rende un modello di intelligenza artificiale effettivamente open source - e su cosa no (spoiler: molti dei modelli generalmente considerati open source potrebbero non esserlo secondo la nuova definizione). Un passo importante per regolamentare un settore sempre più centrale ma ancora in via di definizione."
Cosa rende un'AI "open source" secondo l'OSI
Secondo la nuova definizione OSAID, perché un modello di intelligenza artificiale possa essere considerato open source, deve soddisfare una serie di requisiti chiave:
- Trasparenza del Modello: il modello deve fornire informazioni sufficienti sulla sua architettura e il suo funzionamento in modo che chiunque possa ricrearla in maniera sostanziale.
- Divulgazione dei Dati di Addestramento: il modello deve rivelare dettagli sui dati utilizzati per il suo addestramento, inclusa la provenienza, il processo di elaborazione e le modalità di accesso o licenza.
- Diritti di Utilizzo: gli sviluppatori devono poter utilizzare, modificare e costruire su questo modello open source senza dover chiedere alcun permesso.
"Un'AI open source è un modello che ti permette di comprendere a fondo come è stato costruito", spiega Stefano Maffulli, vicepresidente esecutivo dell'OSI. "Questo significa avere accesso a tutti i componenti, come il codice completo utilizzato per l'addestramento e la filtrazione dei dati".
Perché una definizione condivisa è importante
La motivazione principale dietro la creazione della OSAID è quella di allineare regolatori, sviluppatori e aziende su cosa significhi davvero "open source" nel campo dell'intelligenza artificiale.
"I regolatori stanno già tenendo d'occhio questo campo", afferma Maffulli, riferendosi a iniziative come quelle della Commissione Europea che mirano a riconoscere e promuovere l'AI open source. "Abbiamo fatto un'opera di sensibilizzazione esplicita verso un insieme diversificato di portatori di interesse e comunità - non solo i soliti sospetti della tecnologia. Abbiamo persino cercato di raggiungere le organizzazioni che più spesso si rivolgono ai regolatori per ottenerne un feedback preliminare"
La questione delle AI dalle sorgenti non così "aperte"
Uno dei principali motivi che ha spinto l'OSI a creare questa definizione è il proliferare di aziende che utilizzano il termine "open source" per descrivere i propri modelli AI, pur non rispettandone i criteri. Diverse realtà come Meta, Stability AI e Google hanno infatti etichettato come "open source" modelli che in realtà non lo sono.
Ad esempio, Meta richiede una speciale licenza per l'utilizzo dei suoi modelli Llama da parte di piattaforme con più di 700 milioni di utenti attivi mensili. Stability AI e Mistral hanno a loro volta introdotto limitazioni sull'utilizzo commerciale di alcuni loro modelli.
"La nostra speranza è che quando qualcuno cercherà di abusare del termine, la comunità AI dirà 'Non riconosciamo questo modello come open source' e la cosa verrà corretta", spiega Maffulli. Anche se l'OSI non ha meccanismi di applicazione, questa pressione sociale potrebbe avere un certo effetto."
Con l'OSAID, l'OSI mira a fornire uno standard chiaro e condiviso su cosa significhi "open source" nel campo dell'intelligenza artificiale. Uno standard essenziale per promuovere modelli AI accessibili ed evitare abusi del termine da parte di aziende che vogliono sfruttarne i vantaggi marketing senza rispettarne davvero lo spirito.
Fonti e approfondimenti:
The Verge
Tech Crunch
OSI