Passer au contenu

AirGo Vision : ChatGPT-4o s’invite dans une paire de lunettes connectées

Les Solos AirGo Vision sont les premières lunettes connectées au mode avec GPT-4o. Dotées de haut-parleurs et d’une caméra, elles fourniront des informations en temps réel à l’IA générative, de quoi perturber les plans des Meta Smart Glass.

Après une décennie 2010 d’échecs commerciaux, les lunettes connectées espèrent trouver le chemin du grand public. Pour Mark Zuckerberg, elles vont « redéfinir notre rapport à la technologie » et la plateforme pourrait connaître un essor comparable à ce qu’ont connu les smartphones d’ici à 2030. À l’heure actuelle, il est un peu difficile de donner raison à celui qui a aussi dit que le métavers allait changer nos vies mais le potentiel est là et ne demande qu’à se développer. Avec les AirGo Vision, la firme hongkongaise Solos veut saisir sa chance en intégrant ChatGPT-4o à ses dernières lunettes connectées.

À quoi sert ChatGPT dans des lunettes ?

Mes AirGo Vision optent pour un design relativement classique pour ce type de produits. Ils s’équipent de haut-parleurs et d’une caméra, deux éléments courants qui vont « nourrir » l’intelligence artificielle. En effet, le modèle avancé GPT-4o d’OpenAI se distingue par son approche multimodale et sa capacité à gérer plusieurs éléments en même temps. L’intelligence artificielle peut traiter et générer du texte, des images ou encore du son en temps réel.

Ce dernier élément est le plus intéressant puisque le matériel intégré dans les lunettes va soutenir l’IA pour interagir avec l’environnement. Inutile de lancer une app ou un service de recherche (même basée sur l’IA), le simple fait de porter les AirGo Vision permet à l’utilisateur d’accéder à de nombreuses données en temps réel. Les AirGo Vision avec l’IA fournissent « des informations en temps réel basées sur la reconnaissance visuelle, reconnaissant les personnes et les objets (“qu’est-ce que je regarde ”), ou en naviguant et en indiquant des directions et des points de repère (“donne-moi la direction de la tour Eiffel”) », explique son créateur dans un communiqué. Les lunettes peuvent aussi aider pour suivre les étapes d’une recette ou obtenir le prix d’un article que le porteur a sous les yeux. « Qu’est-ce que je regarde et combien cela coûte-t-il ? » ou « Y a-t-il un meilleur prix ailleurs ? » figurent parmi les exemples cités par le constructeur.

Airgo Vision Gpt
© Solos

Les AirGo Vision revendiquent aussi un comportement plus classique, laissant la possibilité de prendre des photos ou vidéos depuis les caméras. Les haut-parleurs et une LED peuvent aussi alerter l’utilisateur de l’arrivée d’une notification. Notez que la LED est aussi présentée pour indiquer que le porteur est en train de filmer. Les lunettes de Solos disposent de montures interchangeables et les AirGo Vision ne se limitent pas uniquement à ChatGPT. Comme le rapportent nos confrères de 01net, la marque prévoit déjà d’intégrer d’autres solutions comme Gemini de Google et Claude d’Anthropic.

Les lunettes avec IA peuvent aider les lunettes connectées à prendre leur envol

Solos n’est pas une marque débutante, elle a d’ailleurs dévoilé des AirGo 3 en janvier, lors du CES 2024. Ce modèle est dépourvu de caméra et se contentait des échanges audio avec l’IA, mettant surtout l’accent sur la traduction en temps réel. Les AirGoVision offrent un nouvel aperçu de ce que peuvent offrir des lunettes dopées à l’IA, devenant une alternative aux Meta Smarts Glasses. Les lunettes de Meta, développées en partenariat avec Ray-Ban, disposent aussi d’une intelligence artificielle appelée Meta AI. Alors que les lunettes de la firme derrière Facebook démarrent à 329 euros, Solos n’évoquent pas le prix des AirGo Vision. La firme ne donne pas non plus de date de sortie précise, mais il faut s’attendre à un tarif plus élevé que les 249,99 dollars de la version sans caméra.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
  1. Je rêve d’un prompteur audio ! Il reste tellement à découvrir avec un assistant embarqué. Il va falloir continuer d’innover pour des interactions plus pratique que « qu’est-ce que je regarde » ! Steve Jobs au secours, il faut que les désigner d’UX se bougent un peu.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode