Siri, Google Assistant et Alexa œuvrent pour les personnes ayant des troubles de la parole

Siri, Google Assistant et Alexa œuvrent pour les personnes ayant des troubles de la parole

 

Nous poursuivons sur notre lancée autour de la reconnaissance automatique dans le milieu médical, pour les personnes en situation de handicap. En fait, la reconnaissance automatique de la parole est de plus en plus étroitement liée à l’intelligence artificielle. Dans cette optique, plusieurs outils œuvrent pour améliorer le quotidien de personnes ayant des pathologies, des handicaps. Par exemple, pour des troubles de la parole. C’est le cas de Siri d’Apple, de Google Assistant et d’Alexa pour Amazon. Nous allons ainsi voir ici comment ces assistants vocaux se développent de telle sorte qu’ils peuvent même comprendre des messages oraux « troublés »

Des requêtes précises à effectuer oralement

Selon igen.fr, Apple, Google et Amazon travaillent à « rendre leurs assistants plus accessibles aux personnes qui bégaient ou plus généralement, qui souffrent de troubles de l’articulation de la parole ou dysarthrie ».

En fait, jusqu’à présent, lorsque les assistants vocaux ont du mal à comprendre une requête, non seulement les résultats sont souvent mauvais, faussés, mais en plus il arrive fréquemment que les assistants ne poursuivent pas, alors que l’utilisateur n’a pas fini de faire sa demande.

Étant donné qu’une fonction dans « accessibilité », « bouton latéral » oblige Siri d’Apple à prendre en compte une demande vocale jusqu’au bout, ce problème ne devrait pas perdurer. En effet, en prenant en compte ce facteur, Siri empêche déjà l’utilisateur d’être coupé dans sa requête…

Comment les assistants vocaux s’y prennent pour comprendre des troubles de la parole

Comment les assistants vocaux s’y prennent pour comprendre des troubles de la parole

De ce fait, afin d’aller plus loin et de faire en sorte que les assistants vocaux comprennent des requêtes même mal exprimées oralement, les professionnels s’appuient sur du machine learning.

Rappelons que selon lebigdata.fr, le machine learning est une « technologie d’intelligence artificielle permettant aux ordinateurs d’apprendre sans avoir été programmés explicitement à cet effet ». Ces systèmes s’appuient sur des données pour s’entraîner et se peaufiner.

Ainsi, Apple s’est notamment constitué une base de données avec 28 000 extraits audios de bégaiements. Ces données vont permettre à Siri de parfaire son système de reconnaissance vocale.

En effet, selon 20minutes.fr, on y « entend des défauts d’élocution qui sont analysés par Siri. Ainsi, quand l’assistant vocal sera confronté à une personne qui bégaie, il sera capable d’interagir avec elle ».

De son côté, Google teste actuellement un prototype nommé Euphonia. Ce système va directement permettre aux personnes ayant des troubles de la parole de communiquer avec Google Assistant et avec des produits Google Home.

Amazon a lui injecté dans Alexa la technologie israélienne Voiceitt. Cela permet aux algorithmes de reconnaître de plus en plus de schémas vocaux particuliers.

Selon mac4ever.com, Amazon a même lancé en décembre le « Alexa Fund ». Le but est de « créer un algorithme afin de reconnaître les habitudes vocales des personnes ayant des troubles de la diction » Ce qui peut être également très intéressant à suivre !

Le principe est toujours le même : intégrer des fichiers audios avec des défauts de prononciations, des bégaiements, des troubles articulatoires, de l’élocution. Tous ces défauts vont entraîner un système de reconnaissance de la parole automatique.

tester l'application Authôt

Différents troubles de la parole sur lesquels travailler pour les assistants vocaux

Différents troubles de la parole sur lesquels travailler pour les assistants vocaux

Pour les assistants vocaux, les outils et systèmes de reconnaissance automatique de la parole, il y a différents troubles de la parole sur lesquels travailler. Ainsi, il y a notamment cinq problèmes d’élocution, de prononciation qui sont pris en compte :

  • Arrêts de la parole ;
  • Répétitions de sons ;
  • Interjections ;
  • Répétitions de mots ;
  • Prolongations de la parole.

Ces cinq problèmes sont très importants en termes de traitements sonores.

A l’heure actuelle, une seule option permet d’écouter les personnes ayant un débit de parole particulier, avec des pauses. En effet, « Hold to Talk » de Siri permet d’accroître la durée d’écoute de la personne. L’assistant vocal comprend qu’une pause ne marque pas la fin immédiate d’une requête vocale.

De réelles difficultés pour Siri, Alexa et Google assistant

De réelles difficultés pour Siri, Alexa et Google assistant

Concrètement, favoriser, améliorer la compréhension de personnes ayant des troubles de la parole n’est pas facile pour des assistants vocaux qui s’appuient sur la reconnaissance automatique de la parole. Siri, Alexa et Google assistant rencontrent de réelles difficultés.

En fait, les assistants vocaux sont capables facilement aujourd’hui de reconnaître des voix standards, des audios de qualité. Cependant, en ce qui concerne notamment les troubles de la parole c’est plus complexe, car l’expression orale varie davantage. Cette variabilité complexifie l’analyse et la compréhension des messages oraux.

Chez Authôt, nous comprenons parfaitement ces défis et complexités.

Spécialistes en reconnaissance automatique de la parole, en « Speech to Text », nous vous proposons deux plateformes en ligne de retranscription automatique, sous-titrage, traduction en direct ou non Authôt Live et Authôt APP.

Nous précisons toujours à nos clients que la qualité du rendu final de la transcription automatique est conditionnée par la qualité d’enregistrement. Il ne doit pas y avoir trop d’écho, de réverbérations. Il faut éviter les bruits parasites ou encore les difficultés d’élocution. Pour des fichiers de bonne qualité, notre solution est fiable à 95%.

Une expertise humaine encore nécessaire face aux troubles de la parole

Heureusement nous avons notre service humain expert de relecture pour certains fichiers audios en particulier… Aussi bien pour faire face à ce type de problèmes et aussi lorsque plusieurs langues vivantes entrent en jeu. C’est très important.

Nous sommes heureux de ces outils et entreprises qui évoluent comme la nôtre et qui œuvrent en termes d’accessibilité, mais ce n’est encore qu’un début !

C’est pratique pour des requêtes simples, courtes. Par contre, pour des contenus longs, pointus, le mieux est encore de faire appel à des professionnels.

En somme, c’est une bonne nouvelle, des entreprises et acteurs comme Siri, Google Assistant et Alexa, œuvrent pour les personnes ayant des troubles de la parole. Non seulement, les entreprises ont compris l’intérêt, mais en plus les besoins sont de plus en plus importants et précis ! Grâce à nos solutions Authôt app, Authôt live et à nos experts, vous êtes certains de bénéficier du meilleur de la technologie et de l’humain. Si vous êtes une Ecole, un Institut, un Média, n’hésitez pas à solliciter nos équipes !

 

Découvrir Authôt Live

Authôt. Vous parlez. Nous écrivons.