Dès aujourd’hui, l’IA de Meta a la capacité de répondre aux requêtes en fournissant des informations en temps réel. Curieux de savoir comment cela pourrait changer votre expérience ?
Tl;dr
- Les lunettes intelligentes Ray-Ban de Meta reçoivent des améliorations.
- L’ajout de l’assistant AI offre des informations en temps réel.
- Meta teste une nouvelle capacité « multimodale » de son AI.
- Mark Zuckerberg a présenté des vidéos démontrant ces nouvelles fonctionnalités.
Meta, la société mère de Facebook, apporte des améliorations à ses lunettes intelligentes Ray-Ban. Grâce à l’assistant AI intégré, les utilisateurs pourront bénéficier d’informations en temps réel.
De la connaissance restreinte à l’information en temps réel
Initialement, le champ de connaissance de l’assistant Meta AI était limité à décembre 2022. Inapte à répondre à des questions liées à l’actualité ou à fournir des informations comme les scores des matchs sportifs, les conditions de trafic, etc., l’assistant se trouve aujourd’hui considérablement amélioré. Andrew Bosworth, le CTO de Meta, a en effet annoncé que ces améliorations, propulsées en partie par Bing, permettront à tous les utilisateurs de lunettes Meta aux États-Unis d’accéder à des informations en temps réel.
L’AI « multimodale » : une évolution passionnante
Parallèlement, Meta commence à tester une capacité particulièrement intrigante de son assistant, baptisée « AI multimodale ». Cela permettrait à Meta AI de répondre à des questions contextuelles, liées à l’environnement immédiat de l’utilisateur ou à ce qu’il observe à travers ses lunettes. Ces mises à jour ont pour vocation de rendre Meta AI moins superficiel et plus utile.
Source link