Abbiamo già parlato del fatto che i governi di tutto il mondo abbiano iniziato ad attivarsi nei confronti delle intelligenze artificiali generative e della necessità di regolamentarle.
L’Unione Europea è ancora una volta la prima nel fornire le linee guida per una regolamentazione: il Parlamento di Strasburgo ha votato a favore della sua “posizione negoziale sulla legge sull’Intelligenza Artificiale”, aprendo così la strada per i negoziati con il Consiglio e i governi dei singoli Paesi dell’UE per la redazione del testo definitivo.
La legislazione sull’IA si basa sul concetto di rischio, garantendo che la tecnologia sia in linea con i valori ed i diritti dell’Unione, come la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione ed il benessere sociale e ambientale.
Dato che non tutte le AI sono uguali, gli obblighi per gli operatori ed i fornitori varieranno in base al livello di rischio associato a quell’AI.
Saranno vietate tutte le soluzioni basate sull’IA che presentano un rischio considerato inaccettabile. Tra i sistemi ad alto rischio, i deputati europei hanno incluso quelli che possono causare “danni significativi alla salute, alla sicurezza, ai diritti fondamentali delle persone o all’ambiente”, nonché quelli utilizzati per influenzare gli elettori e l’esito delle elezioni, e i sistemi di raccomandazione utilizzati dai social media con più di 45 milioni di utenti.
Rispetto alle bozze precedenti, i deputati hanno esteso i divieti a diverse aree, tra cui:
- l’utilizzo di sistemi di identificazione biometrica in tempo reale e a posteriori nelle aree pubbliche
- la categorizzazione biometrica basata su genere, razza, etnia, cittadinanza, religione o credo politico
- l’uso di sistemi di polizia predittiva
- il riconoscimento delle emozioni
- l’estrazione non mirata di dati biometrici da Internet o da telecamere a circuito chiuso
Inoltre, la nuova legge richiede trasparenza per i sistemi di IA generativa come ChatGPT, che devono dichiarare chiaramente che il contenuto è stato generato da un’intelligenza artificiale. Viene posta una particolare attenzione ai deepfake e alla necessità di fornire strumenti per distinguere tra immagini reali e manipolate.
La legge promuove anche gli “spazi di sperimentazione normativa”, che sono ambienti di vita reale creati dalle autorità pubbliche per testare l’IA prima della sua implementazione. Queste esenzioni sono fondamentali per sostenere l’innovazione delle piccole e medie imprese nel campo dell’intelligenza artificiale.
Con questa normativa, l’Europa si sta ponendo come pioniere nella regolamentazione dell’intelligenza artificiale generativa, cercando di bilanciare l’innovazione con la protezione dei diritti e dei valori fondamentali. Anche l’America ha promesso qualcosa di simile ma per il momento non c’è ancora nulla di concreto.
Leggi o Aggiungi Commenti