Passer au contenu

L’IA de Meta va parler avec la voix de John Cena

Hier, à l’occasion de son évènement Meta Connect 2024, le géant américain a présenté les dernières nouveautés en matière d’intelligence artificielle.

La dernière présentation de Meta au sujet de l’intelligence artificielle datait d’avril dernier, et avait surtout été l’occasion de présenter les ambitions à long terme de l’entreprise. Il était temps d’avoir quelques informations plus concrètes. Et ça tombe bien, Mark Zuckerberg avait quelques nouveautés en stock.

Orion, les lunettes VR du futur

Cette fois, c’est la bonne. Les lunettes de réalité mixte ou augmentée n’ont jamais trouvé leur public, peut-être à cause de leur prix, sans doute à cause de leur intérêt encore très limité. Cette semaine, Meta a présenté Orion, les premières “vraies lunettes de réalité augmentée“. “Résultat d’inventions révolutionnaires dans pratiquement tous les domaines de l’informatique moderne“, l’appareil entend combiner la discrétion d’une paire de lunettes classiques avec les capacités immersives de la réalité augmentée sur environ 70 degrés de champ de vision.

Les lunettes du futur ne sont pas encore d’actualité. Le produit a été annoncé au débit de l’année pour la première fois, et il est encore au stade de prototypage. Il élargit désormais sa phase de test aux employés de Meta et à des publics externes sélectionnés. Le lancement est toutefois prévu dans un “avenir proche“, sans plus de précision.

Des nouveautés autour de l’IA

Grand horizon de Meta sur les prochaines années, l’intelligence artificielle était encore une fois au cœur du discours de l’entreprise. Avec la nouvelle mise à jour, Meta AI s’offre la parole. Les utilisateurs peuvent à présent converser directement avec le chatbot en utilisant Messenger, Facebook, WhatsApp et Instagram. Il sera aussi possible de choisir entre plusieurs voix empruntées à des célébrités, à l’image d’Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key et Kristen Bell, qui pour l’occasion se sont prêtés au jeu de la synthèse vocale. Le déploiement est prévu aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande au cours du mois prochain, en langue anglaise pour le moment. Le reste du monde devrait suivre plus tard.

Pour les créateurs de contenu, il sera aussi bientôt possible de doubler ses propres vidéos grâce à l’intelligence artificielle, avec l’objectif de toucher un public encore plus large. Concrètement, les outils déployés par Meta seront capables non seulement de synthétiser votre voix à partir d’un échantillon donné, mais aussi de reproduire un script en langue étrangère, et de modifier l’image pour recréer une synchronisation labiale artificielle.

Côté LLM, Meta a également présenté les nouveaux modèles open-source Llama 3.2, ainsi que ses premiers modèles multimodaux 11B & 90B. Deux modèles plus légers (1B et 3B), pourront quant à eux être exécutés sur des appareils périphériques et mobiles. Il seront compatibles dès le premier jour avec le matériel Qualcomm et MediaTek et optimisés pour les processeurs ARM.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode