Secondo nuovi dettagli condivisi dal Wall Street Journal in un articolo su come le aziende insegnato agli assistenti vocali a gestire i discorsi atipici, Apple sta studiando come migliorare Siri per capire meglio le persone affette da balbuzie.
A tal fine, l’azienda ha accumulato quasi 28.000 clip di persone affette da questo disturbo dai podcast. I dati raccolti da Apple miglioreranno i sistemi di riconoscimento vocale per modelli di discorso atipici.
Oltre a migliorare il modo in cui Siri comprende le persone con i suddetti schemi di discorso, Apple ha anche implementato una funzione Hold to Talk per l’assistente vocale che consente agli utenti di controllare per quanto tempo desiderano che Siri ascolti. Ciò impedisce all’assistente di interrompere gli utenti balbuzienti prima che abbiano finito di parlare.
Apple prevede di delineare il suo lavoro per migliorare Siri in un documento di ricerca che sarà pubblicato questa settimana, in cui fornirà maggiori dettagli sul suo lavoro.
Google e Amazon stanno anche lavorando per migliorare i propri assistenti digitali a comprendere meglio tutti gli utenti, compresi quelli che hanno problemi ad usare la propria voce. Google sta raccogliendo dati vocali atipici e Amazon a dicembre ha lanciato il Fondo Alexa per consentire alle persone con disturbi del linguaggio di allenare un algoritmo a riconoscere i loro modelli vocali unici.
Leggi o Aggiungi Commenti