Quelles plateformes d’IA utiliser pour vos questions médicales? Les plus connus, ChatGPT ou Gemini? Les solutions suisses, Euria ou Lumo? Une solution médicale, OpenEvidence ?

Que répondent les différents LLM à une question médicale ?

Nous avons soumis la même question à plusieurs modèles de langage de grande taille (ChatGPT, Gemini, Perplexity, OpenEvidence, Euria et Lumo). L’idée était d’analyser, pour la même question, la réponse donnée par chaque LLM.  La question portait sur la valeur de LDL-cholestérol à atteindre chez un patient coronarien mais aussi de citer les sources.

La question posée à tous les modèles de langage (strictement identique)

« Agis comme un cardiologue, spécialiste de l’hypercholestérolémie. Pour l’un de mes patients présentant une maladie coronarienne sans facteurs de risque cardiovasculaires connus, je souhaite connaître l’objectif à atteindre pour le LDL-cholestérol selon les recommandations les plus récentes des sociétés savantes, y compris suisses. Donne-moi la valeur cible du LDL-cholestérol en mmol/L et indique la ou les sources sur lesquelles repose ta réponse. Réponds de façon synthétique. »

Les réponses des LLM

Ce test a une valeur très limitée puisqu’il se base sur une seule question. Il a été effectué en décembre 2025. Vous trouverez par ce lien un document PDF avec l’ensemble des réponses. Ce document est intéressant à parcourir car il montre les différentes réponses des LLM. Il faut cependant admettre que sa lecture est un peu laborieuse….

Image. Que répondent les différentes IA conversationnelle à une question médicale?

Commentaires

ChatGPT 5.2 (Auto) : valeur cible correcte, formulation synthétique, référence suisse de faible qualité.

ChatGPT 5.2 (Auto) avec le GPT « Clinical Medicine Handbook » : valeur cible correcte, formulation synthétique, références correctes. Conclusion, l’utlisation du GPT «Clinical Medicine Handbook» génère une réponse de meilleure qualité.

Gemin 3 (Rapide) : valeur cible correcte, formulation synthétique, références correctes.

Perpexity : valeur cible correcte, formulation synthétique, références correctes. Perplexity cite ses sources pour chaque élément présent dans sa réponse.

OpenEvidence : valeur cible correcte, formulation synthétique, références correctes.

Euria (Automatique) : valeur cible correcte, formulation très synthétique, références correctes.

Lumo : valeur cible correcte, formulation très synthétique, références correctes.

Et le gagnant est…

La question était précise, simple, mais il faut retenir que toutes les plateformes donnent la bonne réponse.

  • Dans cet exemple ChatGPT est meilleur lorsque l’on utilise un GPT «médical».  La réponse de ChatGPT avec le GPT « Clinical Medicine Handbook » est correcte, synthétique et agréable à lire.
  • Elément intéressant, Gemini cite les dernières recommandations « mise à jour ciblée de 2025 » mais la réponse est moins agréable à lire.
  • Perplexity, une réponse claire, synthétique, référencée.
  • OpenEvidence, une réponse claire, un peu plus développée, référencée.
  • Euria, une réponse claire, synthétique, référencée.
  • Lumo, une réponse claire, synthétique, référencée. Il est intéressant de noter la prudence de la réponse de Lumo « il serait prudent de vérifier les dernières publications ou de consulter le site officiel de chaque société »

Nos recommandations

Mais nous sommes ouverts à la critique 😉

  • Pour les questions médicales: 1. OpenEvidence 2. Perplexity 3. Euria ou Lumo
  • Pour les autres: 1. Euria ou Lumo 2. Perplexity 3. ChatGPT, Gemini ou Claude

Jean Gabriel Jeannot, le 11.02.2026

Un nouveau site consacré à l’utilisation de l’IA générative en médecine

Vous trouverez à l’adresse iamedicale.org un nouveau site consacrée à l’utilisation de l’intelligence artificielle générative en médecine. Son objectif est de mettre à disposition des professionnels de la santé des informations sur l’utilisation des grands modèles de langage (ChatGPT, Perplexity, OpenEvidence, Euria, etc.) en médecine.

Si ce sujet vous intéresse, inscrivez-vous à l’infolettre d’iamedicale.org, une adresse mail suffit !