I ricercatori della Germania Ruhr-Universität Bochum e del Bochum Max Planck Institute, rivelano che Siri può essere inavvertitamente attivato da altri comandi, tra cui “A city“, “Hey Jerry” e altro ancora, rivelano
Siri non è l’unico assistente virtuale che si attiva con falsi trigger. Lo studio ha compilato un elenco di oltre 1.000 parole che possono attivare accidentalmente diversi assistenti virtuali.Oltre a Siri, anche Alexa di Amazon, Google Assistant, Microsoft Cortana e altri si attivano erroneamente semplicemente ascoltando alcuni film o programmi TV.
Alexa, ad esempio, si attiva con le parole “unacceptable” ed “election”, mentre Google Assistant può essere attivato con il comando “OK, cool”.
La dottoressa Kolossa, ha dichiarato:
“I dispositivi sono programmati intenzionalmente per essere un pò più tolleranti nel ricevere i comandi, in modo da poter comprendere al meglio gli umani. Pertanto, è più probabile che si avviino una volta in più anziché per niente.”
Dal punto di vista della privacy, il problema con questo tipo di parole di risveglio accidentali è che può comportare l’invio dell’audio a produttori di assistenti intelligenti quando non previsto dagli utenti.
“Dal punto di vista della privacy, i falsi trigger sono ovviamente allarmanti, perché a volte le conversazioni private possono essere ascoltate da estranei”, ha affermato Thorsten Holz, un altro ricercatore del progetto. “Da un punto di vista ingegneristico, tuttavia, questo approccio è abbastanza comprensibile, poiché i sistemi possono essere migliorati solo utilizzando tali dati. I produttori devono trovare un equilibrio tra protezione dei dati e ottimizzazione tecnica.”
Avete mai attivato Siri con un comando diverso da “Hey, Siri”? Fateci sapere nei commenti qui sotto!
Leggi o Aggiungi Commenti