Il mondo dell’Intelligenza Artificiale sta vivendo una fase di rapida evoluzione, ma a fianco all’entusiasmo per le sue potenzialità, cresce la preoccupazione per i rischi derivanti da uno sviluppo non regolamentato. A lanciare l’allarme sono stati alcuni dipendenti, sia attuali che ex, di due importanti aziende del settore, OpenAI e Google DeepMind, attraverso una lettera aperta.
Questi tecnici mettono in luce diverse minacce associate a un’IA fuori controllo, tra cui l’ulteriore radicamento delle disuguaglianze esistenti, la manipolazione e la disinformazione, e la perdita di controllo sui sistemi autonomi di IA, che secondo la lettera potrebbero portare all’estinzione dell’umanità.
La lettera sottolinea come le aziende del settore siano spinte da “forti incentivi economici” per continuare nello sviluppo e per evitare di condividere informazioni sulle loro misure protettive e sui livelli di rischio.
Finché non ci sarà una supervisione governativa efficace di queste aziende, gli attuali ed ex dipendenti sono tra le poche persone che possono ritenerle responsabili di fronte al pubblico. Tuttavia, ampi accordi di riservatezza impediscono loro di esprimere le proprie preoccupazioni, tranne che alle stesse aziende che potrebbero non affrontare questi problemi. Le protezioni ordinarie per i whistleblower sono insufficienti perché si concentrano su attività illegali, mentre molti dei rischi di cui siamo preoccupati non sono ancora regolamentati.
La richiesta principale degli impiegati alle società di IA è l’implementazione di solide tutele per chi denuncia i rischi connessi all’IA, tra cui:
- Evitare accordi che impediscano critiche su problemi legati ai rischi.
- Offrire canali anonimi verificabili per segnalare i rischi al consiglio di amministrazione, agli enti di regolamentazione e a organizzazioni indipendenti con competenze specifiche.
- Favorire una cultura di apertura alla critica, consentendo ai dipendenti di sollevare pubblicamente questioni legate ai rischi, purché vengano preservati i segreti commerciali.
- Astenersi da ritorsioni verso chi condivide pubblicamente informazioni riservate concernenti i rischi, dopo l’esaurimento di altre procedure interne.
La lettera è firmata da 13 dipendenti, tra cui sette ex OpenAI, quattro attuali OpenAI, un ex Google DeepMind e un impiegato Google DeepMind in carica. OpenAI è stata accusata di minacciare la perdita di quote ai propri dipendenti in caso di denunce e di imporre accordi di riservatezza estremamente restrittivi che limitano la libertà di critica.
L’iniziativa arriva in un momento cruciale, in vista dell’annuncio da parte di Apple di molteplici funzionalità basate sull’IA per iOS 18 e altri aggiornamenti software in programma per lunedì. La società sta infatti sviluppando la propria tecnologia IA che verrà integrata in diverse app all’interno del sistema operativo, oltre ad aver stretto un accordo con OpenAI per integrare le funzionalità di ChatGPT in iOS 18.
Leggi o Aggiungi Commenti