Apple ha pubblicato nuovi brevetti dedicati a Siri, che mostrano alcune delle funzioni che potrebbero essere integrate in futuro. Tra queste, c’è anche la possibilità per l’assistente virtuale di leggere e interpretare le nostre espressioni facciali.
Nel brevetto si spiega come Siri possa in futuro interpretare meglio i nostri comandi vocali sfruttando la fotocamera frontale dell’iPhone o dell’iPad puntata verso il volto dell’utente. In questo modo, Siri sarebbe in grado di capire meglio le intenzioni dell’utente e comportarsi di conseguenza. In pratica, l’assistente virtuale di Apple potrebbe leggere le nostre espressioni facciali e combinare queste informazioni con il comando vocale impartito dall’utente.
L’obiettivo di Apple è ridurre il numero di volte in cui una richiesta vocale viene interpretata in modo errato.Parte del sistema prevede anche l’utilizzo del riconoscimento facciale per identificare l’utente e quindi fornire azioni personalizzate come il recupero dell’email di quella persona o la riproduzione di playlist musicali personali.
Inoltre, Siri sarebbe anche in grado di capire se la sua risposta al comando vocale è stata soddisfacente o meno in base alle espressioni dell’utente.
Si tratterebbe di un importante passo avanti per Siri, che ancora oggi rimane indietro rispetto ad altri assistenti virtuali.