HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

EchoSpeech, des lunettes sonar qui suivent les mouvements faciaux pour communiquer en silence

Un système de sonar pour lire les mouvements de la bouche intégré dans des lunettes, l’idée astucieuse et très prometteuse de EchoSpeech.

Un chercheur de l’Université Cornell a mis au point des lunettes sonar qui peuvent vous “entendre” même si vous ne parlez pas. Ces lunettes utilisent de petits microphones et haut-parleurs pour lire les mots que vos lèvres prononcent en silence, que ce soit pour mettre en pause une chanson ou passer à la suivante, saisir un mot de passe sans toucher le téléphone ou travailler sur des modèles de dessin par ordinateur sans clavier.

Un système de sonar pour lire les mouvements de la bouche intégré dans des lunettes

Ruidong Zhang, qui a développé cet appareil, est parti d’un projet similaire qui utilisait un écouteur sans fil et des modèles précédents avec des caméras. Le fait d’utiliser des lunettes permet de ne plus avoir besoin de caméras ou d’avoir quelque chose dans l’oreille. “La plupart des technologies de reconnaissance dans le monde muet sont limitées à un ensemble de commandes prédéterminées et il faut que l’utilisateur fasse face à une caméra ou qu’il en porte une, ce qui n’est pas toujours pratique ou même faisable”, expliquait Cheng Zhang, professeur assistant à Cornell : “Nous amenons le sonar sur le corps humain.”

Les chercheurs expliquent que ce système n’a besoin que de quelques minutes d’entraînement – par exemple lire une série de chiffres – pour apprendre les schémas d’élocution de l’utilisateur. Une fois fait, les lunettes sont prêtes. Elles envoient et reçoivent des ondes sonores sur votre visage, détectant les mouvements de votre bouche et utilisant un algorithme de deep learning pour analyser les profils d’écho en temps réel, “avec environ 95 % de précision”.

Le système fait cela tout en déléguant le traitement des données, en mode sans fil, à votre smartphone, permettant aux lunettes de rester très discrètes. La version actuelle offre environ 10 heures d’autonomie pour la détection acoustique. Par ailleurs, aucune donnée quitte votre téléphone. “Nous sommes enthousiastes en ce qui concerne ce système parce qu’il repousse le champ d’application tout en étant performant et en respectant la vie privée”, déclarait Cheng Zhang. “C’est petit, peu demandeur en énergie et respectueux de la confidentialité, autant d’aspects de très haute importance pour déployer de nouvelles technologies, à porter sur soi qui plus est, dans le vrai monde.”

L’idée astucieuse et très prometteuse de EchoSpeech

La confidentialité est très importante pour une utilisation en conditions réelles. Par exemple, Ruidong Zhang suggère d’utiliser ces lunettes pour contrôler la musique (sans les mains ni les yeux) dans une bibliothèque ou dicter un message pendant un concert bruyant où les autres méthodes échoueraient. Mais le scenario le plus intéressant serait peut-être pour permettre aux personnes souffrant de difficultés d’élocution de dialoguer avec un synthétiseur vocal pour se faire entendre.

Si tout se passe bien, ces lunettes devraient être commercialisées. L’équipe du Smart Computer Interfaces for Future Interactions (SciFi) Lab de Cornell explorent la possibilité de lancer sur le marché cette technologie via un programme de financement de Cornell. Ils s’intéressent aussi aux applications pour les lunettes connectées pour suivre les mouvements du visage, des yeux et même du haut du corps. “Nous pensons que les lunettes seront une plateforme personnelle de calcul importante pour comprendre les activités humaines dans la vie de tous les jours”, expliquait Cheng Zhang.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité