L’IA générative en médecine de premier recours : promesses réelles, risques concrets
Les chatbots d’IA générative (ChatGPT, Gemini, Claude, Perplexity…) sont déjà utilisés par de nombreux professionnels de santé mais aussi par leurs patients. Que dit la recherche récente sur ce que ces outils peuvent apporter, et ce qu’ils risquent de dégrader ?
Vos patients utilisent l’IA avant même de vous appeler
Les outils d’IA générative se répandent rapidement en médecine de premier recours — outils de transcription automatique, rédaction de messages aux patients, aide à la décision clinique — et leur adoption a devancé les cadres réglementaires existants [1]. Dans certains pays, plus d’un adulte sur trois consultent désormais un chatbot d’IA pour des questions de santé [2]. Des millions de personnes interprètent leurs symptômes et décident de consulter, ou non, via ces outils, avant même de décrocher leur téléphone.
Ce phénomène a une face positive pour les patients qui peinent à accéder aux soins. Mais ces mêmes outils délivrent des informations problématiques dans près de la moitié des consultations évaluées [2], avec des réponses qui varient selon la façon dont les questions sont formulées. En pratique, vos patients arrivent en consultation avec des informations glanées sur ces plateformes. Les connaître vous permet de mieux contextualiser ce qu’ils vous rapportent.
Le mythe du « médecin dans la boucle »
Les cadres réglementaires actuels reposent sur un postulat : tant qu’un professionnel valide les réponses de l’IA, la sécurité est assurée. Ce « human-in-the-loop » est de plus en plus contesté par les recherches [1]. Nous n’avons souvent ni le temps ni la formation pour interroger en profondeur des systèmes opaques. La sécurité ne repose pas sur la seule vigilance du clinicien : elle émerge de l’interaction entre l’humain, l’outil et le contexte organisationnel. Ce constat vaut d’ailleurs bien au-delà des cabinets individuels, dans toutes les structures de soins, des outils déployés sans intégration réelle dans les flux de travail ni gouvernance adaptée produisent des résultats décevants [3].
Ce que cela exige de nous
Adopter un outil d’IA sans adapter les processus de soins ni prévoir de formation, c’est prendre un risque [1, 3]. Comme pour tout nouveau collaborateur, il faut une phase d’apprentissage mutuel, comprendre dans quelles situations l’outil est fiable, et dans lesquelles il dérape. Cette sécurité ne se certifie pas une fois pour toutes : elle se surveille dans le temps, dans le contexte réel d’utilisation [1]. Et l’enjeu dépasse la technique : il s’agit aussi de former les professionnels, d’adapter les organisations, et de définir des standards clairs pour un usage éthique [3].
Notre rôle évolue : moins propriétaires exclusifs du savoir médical, plus interprètes et communicants, capables de contextualiser, corriger, humaniser ce que nos patients ont déjà lu ou entendu ailleurs [2]. Ce n’est pas une menace. C’est une recomposition qui demande que nous nous y préparions activement.
Image. Se former, c’est aussi prendre sa place dans ce débat, plutôt que de laisser d’autres décider à notre place comment l’IA va remodeler notre métier.
Les professionnels de santé doivent se former
Face à ces changements, une seule réponse tient : se former. Non pas pour maîtriser chaque outil technique, mais pour comprendre ce que l’IA peut faire, ce qu’elle ne peut pas faire, et comment l’intégrer de façon sûre et utile dans sa pratique.
Adopter un outil d’IA sans se former, sans adapter les processus de soins, c’est prendre un risque réel [1]. Comme pour tout nouveau collaborateur, il faut du temps pour apprendre dans quelles situations l’outil est fiable, et dans lesquelles il dérape. La sécurité ne se certifie pas une fois pour toutes : elle se surveille dans le temps [1]. Et l’enjeu dépasse largement le cabinet individuel : il engage aussi les organisations de soins, les institutions de formation, et les régulateurs [3].
Se former, c’est aussi prendre sa place dans ce débat, plutôt que de laisser d’autres décider à notre place comment l’IA va remodeler notre métier.
Jean Gabriel Jeannot, le 15.04.2026
Références
- Biro J, Jabbarpour Y, Ratwani R. A new approach to artificial intelligence safety in primary care. Lancet Prim Care2026 ; 2 : 100115.
- The Lancet Primary Care. Generative AI chatbots in primary care. Lancet Prim Care 2026 ; 2 : 100147.
- Community Health Impact Coalition Research Group. Governance, scale, and integration: building community health worker systems ready for artificial intelligence. Lancet Prim Care 2026 ; 2 : 100144.
Pour se former
L’utilisation des grands modèles de langage en médecine — comment les choisir, les évaluer, les intégrer dans la pratique clinique — est précisément le sujet que développe le site iamedicale.org. Vous y trouverez des ressources régulièrement mises à jour sur les principaux outils (ChatGPT, OpenEvidence, Perplexity, Euria, et d’autres), ainsi que des analyses orientées pratique médicale.
Si vous souhaitez aller plus loin de façon structurée, des formations dédiées aux professionnels de santé sont également proposées : iamedicale.org/nos-formations.