Passer au contenu

OpenAI lance GPT-4, et vous pouvez déjà en profiter

OpenAI vient d’annoncer le déploiement de GPT-4, avec reconnaissance d’images intégrée.

Plus créative et collaborative que jamais“, la nouvelle version de l’intelligence artificielle derrière ChatGPT (pour Generative pre-trained transformer) veut accélérer encore un peu plus l’explosion de l’IA dans notre quotidien. Après des mois de rumeurs et de spéculations, GPT-4 promet désormais de “générer, éditer et itérer avec les utilisateurs sur des tâches d’écriture créatives et techniques“. Chat GPT-4 est donc doté de plus de paramètres, ce qui signifie qu’il peut traiter plus de données et générer des textes plus complexes et plus cohérents qu’auparavant.

GPT-4 s’offre l’image

Parmi les principales différences entre GPT-3.5 — qui alimente actuellement ChatGPT — et GPT-4, le nouveau modèle d’intelligence artificielle imaginé par OpenAI intègre désormais la prise en charge d’images en plus du texte. Un sacré pas en avant rendu possible par une collaboration réussie avec la start-up, Be My Eyes, spécialisée dans la reconnaissance d’images. Concrètement, en montrant à GPT-4 des images d’ingrédients, ce dernier pourra ensuite vous proposer des idées de recettes, ou encore une liste de course. En revanche, le langage n’est pour le moment capable de générer que du texte, et l’option n’est pas encore disponible.

Toujours plus intelligent

Pour les étudiants aussi, GPT-4 pourrait se montrer encore plus efficace. En scannant un document complexe, une page de livre scolaire ou même un manuel d’utilisation, ce dernier pourra se charger de condenser de grandes quantités d’informations, pour les transformer en un résumé intelligible. Selon un employé d’OpenAI, le langage permettra aussi de créer un site web complet à partir de quelques consignes rédigées à la main sur une feuille blanche, mais pourra aussi coder un jeu simple en quelques secondes. Une évolution logique, quand on sait que GPT-3.5 permettait déjà au chatbot de rédiger des lignes de code à partir d’une simple phrase de commande.

GPT-4 signe une nouvelle avancée prometteuse sur le marché de l’IA, au point que ses créateurs l’estiment désormais capable de se montrer “aussi performant que les humains dans de nombreux contextes professionnels et académiques“, rapporte OpenAI dans un communiqué. Pour preuve, l’outil aurait réussi à se classer parmi les 10% d’élèves les mieux notés en passant un examen du barreau. Plus impressionnant encore, il se serait classé au 99e percentile d’une olympiade de biologie, tandis que ChatGPT (équipé de GPT-3.5) n’avait atteint que le 31e percentile.

Déjà dans Bing

Pour le moment, les utilisateurs et les utilisatrices de ChatGPT Plus comptent parmi les seuls à pouvoir profiter de la nouvelle intelligence artificielle d’OpenAI, avec un plafond d’utilisation. Cette version payante offre plusieurs avantages, comme l’accès anticipé à certaines options, un temps de réponse plus rapide, et la possibilité d’utiliser le chatbot même lorsque ses serveurs sont saturés. Il faut en revanche compter plus de 22€ mensuels pour profiter du service. Les développeurs peuvent quant à eux s’inscrire sur une liste d’attente pour accéder à l’API.

Bonne nouvelle pour les utilisateurs et les utilisatrices de Bing, le nouveau modèle d’intelligence artificielle d’OpenAI est cependant d’ores et déjà accessible via le nouveau moteur de recherche de Microsoft pour le moment disponible en beta, pour le moment sans traitement de l’image. L’information a été confirmée il y a quelques heures par le géant américain, qui a investi plusieurs milliards de dollars dans le développement de l’entreprise.

Parmi les autres utilisateurs de GPT-4, la plateforme d’apprentissage de langue en ligne Duolingo a elle aussi intégré le langage d’OpenAI dans un nouveau système d’abonnement baptisé Dulingo Max.

Encore beaucoup d’erreurs

L’avancée technologique de GPT-4 est palpable, et déjà très prometteuse. Pour autant, le PDG d’OpenAI Sam Altman a préféré prendre les devants : sur Twitter, l’homme d’affaires a admis que son nouvel outil était “toujours imparfait, toujours limité, et qu’il semble toujours plus impressionnant à la première utilisation“. L’étape n’en reste pas moins décisive : l’entreprise vient d’atteindre la “dernière étape dans ses efforts pour développer l’apprentissage en profondeur“.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Tech Crunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode