L’Unione Europea ha presentato la prima bozza del Codice di Condotta per l’AI di uso generale (General-Purpose AI, GPAI), un documento redatto da esperti indipendenti che stabilisce le linee guida necessarie per un utilizzo sicuro, etico e trasparente dei modelli di IA avanzati.
La pubblicazione di questa bozza segna la conclusione del primo dei quattro cicli di stesura previsti; la versione finale è attesa per aprile 2025.
Il documento sarà discusso la prossima settimana durante il “Code of Practice Plenary”, un evento che vedrà la partecipazione di circa 1000 stakeholder, tra cui aziende, ricercatori, rappresentanti governativi e osservatori europei e internazionali. L’incontro sarà un’importante opportunità per ricevere suggerimenti e contributi che possano migliorare ulteriormente la bozza.
Che cosa sono i modelli di AI di uso generale?
I modelli di AI di uso generale, detti GPAI, sono sistemi avanzati con una capacità di calcolo superiore a 10^25 FLOPs, progettati per essere altamente adattabili a una vasta gamma di compiti. Questi modelli, grazie alla loro versatilità, rivestono un ruolo cruciale in vari settori, ma comportano anche rischi significativi legati al loro potenziale impatto sistemico. Tra le aziende che potrebbero essere interessate da queste linee guida ci sono OpenAI, Google, Meta, Anthropic e Mistral, ma altre società potrebbero aggiungersi man mano che la tecnologia progredisce.
Principi guida della bozza del Codice di Condotta:
- Trasparenza: le aziende del settore dell’AI saranno tenute a fornire informazioni dettagliate sui metodi di web crawling utilizzati per l’addestramento dei modelli, garantendo il rispetto dei diritti di copyright e una maggiore responsabilità.
- Conformità al copyright: il documento mira a tutelare i diritti dei creatori e a garantire che i fornitori rispettino le normative vigenti in materia di copyright.
- Valutazione dei rischi: sono evidenziati i rischi di discriminazione, crimini informatici e scenari in cui l’AI potrebbe causare perdite di controllo. Queste misure mirano a prevenire conseguenze sistemiche dannose.
- Mitigazione tecnica e governance: la bozza prevede l’introduzione di un Safety and Security Framework (SSF), che include protezioni avanzate per i dati, accesso sicuro ai modelli e revisioni continue delle misure di sicurezza.
Prossimi passi e partecipazione degli stakeholder
Durante il Code of Practice Plenary, ogni giorno sarà dedicato a un gruppo di lavoro tematico. Il 22 novembre, i presidenti dei gruppi presenteranno le conclusioni emerse durante le discussioni.
Gli stakeholder potranno inoltre inviare un feedback scritto tramite la piattaforma Futurium entro il 28 novembre. Questi input saranno utilizzati per affinare la bozza, con l’obiettivo di raggiungere un equilibrio tra regolamentazioni chiare e la flessibilità necessaria per adattarsi rapidamente ai cambiamenti tecnologici.
Il Codice sarà aggiornato in linea con la recente approvazione del AI Act e includerà esenzioni specifiche per i fornitori di modelli open-source.
Leggi o Aggiungi Commenti