Les assistants virtuels, les plus en vogue du marché, ne sont pas toujours capables de comprendre le langage.
Les assistants virtuels, Siri, Google Home et autres Alexa, figurent au rang des technologies les plus en vogue du moment. Selon Transparency Market Research, le marché devrait d’ailleurs atteindre 7,9 milliards d’ici 2024 (contre 627,7 millions de dollars en 2015). Pourtant, en matière d’expérience utilisateur, ces technologies présentent encore des points de friction. Le premier étant de ne pas toujours comprendre avec précision ce que leur raconte l’humain qui interagit avec eux. En particulier si celui-ci s’exprime avec un fort accent.
Certes, Amazon Alexa pratique aujourd’hui l’anglais américain, le britannique et l’allemand. Toutefois, un Néo-Zélandais rencontrera davantage de difficultés à se faire comprendre en comparaison d’un Américain. Un point soulevé par Rachael Tatman, doctorante à l’Université de Washington, à l’occasion du Virtual Assistant Summit organisé par RE•WORK à San Francisco. Spécialiste en linguistique, elle s’intéresse en effet de près aux défis en matière de reconnaissance vocale rencontrés par les assistants virtuels.
Dans le but de gommer leurs problèmes de compréhension d’accents, elle a développé un modèle qui calque les mécanismes qui nous permettent, en tant qu’humains, de nous adapter aux nuances du langage. Elle l’explique ainsi : « En moyenne, il faut deux phrases à l’humain pour réaliser qu’il a à faire à un interlocuteur parlant un dialecte différent du sien. Notre compréhension se base sur l’ acoustique mais aussi sur des croyances que nous tirons de la vision de la personne elle-même. En fonction de son origine, de son sexe et bien d’autres paramètres, nous sommes en mesure de décoder l’information rapidement. »
Tatman: The biggest benefit of these models? They improve recognition for accented speech while maintaining accuracy for others. #reworkVA
— Rachael Tatman (@rctatman) 26 janvier 2017
La prise en compte des données sociodémographiques de l’utilisateur pourrait donc améliorer la performance de l’assistant virtuel. C’est en tout cas le parti pris par Tatman dans l’élaboration de son modèle. Son intérêt ne se limite pas simplement à rendre Alexa efficace bien que son utilisateur ait un fort accent du sud des États-Unis par exemple. Il pourrait également lui permettre de reconnaître les commandes d’utilisateurs ayant des problèmes d’élocution, des personnes handicapées mais aussi des individus atteints de la maladie d’Alzheimer. Un progrès qui semble nécessaire pour que les bénéfices de ces technologies puissent toucher le plus grand nombre possible.