Une équipe de chercheurs du laboratoire GIPSA-lab (CNRS/Université Grenoble Alpes/Grenoble INP) et d’Inria Grenoble Rhône-Alpes vient de mettre au point un système permettant de visualiser, en temps réel, nos propres mouvements de langue. Capturés à l’aide d’une sonde échographique placée sous la mâchoire, ces mouvements sont traités par un algorithme d’apprentissage automatique qui permet de piloter une « tête parlante articulatoire ». En plus du visage et des lèvres, cet avatar fait apparaître la langue, le palais et les dents habituellement cachés à l’intérieur de l’appareil vocal. Ce système de « retour visuel », qui devrait permettre de mieux comprendre et donc de mieux corriger sa prononciation, pourra servir à la rééducation orthophonique ou l’apprentissage d’une langue étrangère. Ces travaux sont publiés dans la revue d’octobre 2017.