NEW YORK. In futuro l’assistente vocale Siri non ascolterà solo le richieste degli utenti, ma anche le loro emozioni. La fotocamera frontale dell’iPhone analizzerà infatti le espressioni facciali e lo stato emotivo dell’utente mentre formula una domanda o impartisce un comando a Siri, in modo da ridurre i casi di incomprensioni e interpretazioni errate. La novità spunta in un brevetto depositato negli Stati Uniti.
Il sistema funziona attraverso l’analisi del volto – ad esempio il movimento di alcuni muscoli facciali – per attribuire all’utente un determinato stato emotivo. L’analisi, abbinata al comando vocale, può aiutare Siri a rispondere nel caso di richieste che hanno più di una interpretazione. Potrebbe inoltre rivelarsi utile per determinare se una risposta di Siri ha soddisfatto o meno l’utente.