Google teste actuellement Med-PaLM 2, un programme d’intelligence artificielle conçu pour répondre avec précision aux questions médicales, selon le Wall Street Journal. Le programme se distingue des algorithmes à usage général par sa « formation » : des questions et des réponses provenant d’examens de licence médicale, ce qui, d’après Google, le rend plus efficace pour aborder les problèmes de santé.
L’intelligence artificielle au service de la santé
En parallèle, Microsoft travaille avec Epic, une entreprise de logiciels de santé (rien à voir avec l’éditeur de jeux vidéo !), pour développer des outils utilisant les algorithmes de ChatGPT et rédiger automatiquement des messages aux patients. Ces initiatives sont en phase de test dans divers établissements de santé à travers les États-Unis et ont pour objectif final d’apporter des solutions pour faciliter l’accès aux soins, en particulier dans les régions avec des ressources limitées.
Le développement de ces programmes n’est pas sans susciter des inquiétudes. Les outils d’IA génératifs, capables de produire des réponses d’autorité aux questions médicales, peuvent potentiellement influencer les patients d’une manière qui ne serait pas nécessairement cautionnée par les médecins. De plus, des questions éthiques concernant l’utilisation des données de santé des patients se posent, notamment en ce qui concerne leur consentement éclairé.
Google a assuré que les clients qui testent Med-PaLM 2 garderont le contrôle de leurs données, qui seront stockées dans des environnements cryptés inaccessibles à la firme technologique. Le programme « n’ingérera » aucune de ces données. De son côté, Microsoft a affirmé que les données des patients ne sont pas utilisées pour former leurs algorithmes. Les dirigeants de Google et Microsoft admettent de toute façon que leurs programmes d’IA tels que Med-PaLM 2 et ChatGPT ont encore besoin de plus de développement et de tests avant de pouvoir être utilisés pour diagnostiquer des patients et suggérer des traitements.
Les résultats des premières évaluations de Med-PaLM 2 n’en restent pas moins prometteurs, les médecins préférant les réponses du système à celles produites par leurs collègues dans huit des neuf catégories d’évaluation définies par Google. Cependant, ils ont également constaté que le programme incluait plus de contenu inexact ou hors sujet dans ses réponses, un défaut commun à de nombreux chatbots.
La route vers une utilisation généralisée de l’intelligence artificielle dans le domaine de la santé est encore semé d’embûches techniques et éthiques. Néanmoins, il semble bien impossible d’arrêter le train de Google et de Microsoft qui ont bien l’intention de créer des bots spécialisés.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Et c’est là que le pas de trop est fait : comme nous n’avons rien pour valider les IA (qui ne sont en fait que des Intuitions artificielles) elles ne devraient servir qu’à nous faire gagner du temps sur les tâches où les erreurs n’ont pas de conséquences, comme chercher les visages sur un photographie.
En aucun cas on ne peut s’y fier pour des diagnostics médicaux ou la conduite autonome, car un rien peut faire dérailler un IA sans qu’on comprenne pourquoi.
Ce n’est pas pour rien que les spécialistes cherchent des moyens pour valider les IA.
Les journalistes devraient éviter de faire rêver les gens en laissant entendre qu’on peut s’y fier.