Les ingénieurs de Meta s’approchent d’une certaine forme de réalisme pour le métavers avec Codec Avatars 2.0, un prototype d’avatars VR utilisant des techniques avancées de machine learning.
Trois ans auparavant, Facebook, filiale de Meta, exposait son travail avec Codec Avatars. Alimentés par de multiples réseaux neuronaux, les avatars sont générés à l’aide d’un appareil de capture spécialisé doté de 171 caméras. Une fois générés, ils peuvent être pilotés en temps réel par un prototype de casque VR doté de cinq caméras (deux internes visualisant chaque œil et trois externes visualisant le bas du visage). Depuis, les équipes en charge du projet ont présenté plusieurs évolutions du système, notamment des yeux plus réalistes et une version ne nécessitant qu’un suivi oculaire et une entrée par microphone.
En avril dernier, lors de l’atelier “Virtual Beings & Being Virtual” du MIT, Yaser Sheikh a présenté la nouvelle version de Codec Avatars. Malgré des évolutions majeures et importantes, il reste encore beaucoup à faire : “Je dirais que l’un des grands défis de la prochaine décennie est de voir si nous pouvons permettre des interactions à distance qui ne se distinguent pas des interactions en personne“. Au cours de l’atelier, il a fait remarquer qu’il est impossible de prévoir dans combien de temps Codec Avatars sera effectivement commercialisé. Il a toutefois déclaré qu’au début du projet, il y avait dix miracles à faire et qu’il pense maintenant qu’il y en a cinq.
Des avatars réalistes avec Codec Avatars 2.0 pour Meta
Codec Avatars 2.0 pourrait toutefois finir par être une solution autonome, plutôt qu’une mise à jour directe des avatars cartoons actuels. Dans un entretien avec Lex Fridman, le PDG Mark Zuckerberg a décrit un avenir où les utilisateurs pourraient utiliser un avatar au style cartoonesque dans les jeux occasionnels et un avatar réaliste dans les réunions de travail.
Source link