Un documento interno di Meta, intitolato Frontier AI Framework, esprime preoccupazioni riguardo a possibili scenari catastrofici legati allo sviluppo di nuovi modelli di intelligenza artificiale. L’azienda ammette che alcuni sistemi potrebbero rappresentare un rischio critico, con conseguenze catastrofiche e potenzialmente irreversibili per l’umanità.
Secondo quanto riportato da TechCrunch, Meta ha individuato due categorie di Aœ considerate troppo pericolose per essere rilasciate: sistemi ad alto rischio e sistemi a rischio critico.
Entrambe le categorie potrebbero essere utilizzate per attacchi informatici o la creazione di armi chimiche e biologiche, ma le critical risk potrebbero causare danni non mitigabili nel contesto in cui verrebbero implementate.
L’azienda cita alcuni esempi concreti di scenari temuti, tra cui:
- La violazione automatizzata di reti informatiche protette senza intervento umano;
- La scoperta e lo sfruttamento autonomo di vulnerabilità zero-day.
- Truffe automatizzate su larga scala contro individui e aziende;
- La creazione e la diffusione di armi biologiche ad alto impatto.
Meta assicura che, nel caso in cui un modello venga identificato come un rischio critico, il lavoro su di esso verrà immediatamente interrotto e si cercherà di impedirne il rilascio. Tuttavia, il documento ammette che le misure di sicurezza potrebbero non essere sufficienti per evitare che tali tecnologie possano sfuggire al controllo:
“L’accesso è strettamente limitato a un piccolo numero di esperti, con protezioni di sicurezza per prevenire hacking o esfiltrazione, nella misura in cui ciò sia tecnicamente fattibile e commercialmente praticabile”.
Leggi o Aggiungi Commenti