Quelles plateformes d’IA utiliser pour vos questions médicales? Les plus connus, ChatGPT ou Gemini? Les solutions suisses, Euria ou Lumo? Une solution médicale, OpenEvidence ?
Que répondent les différents LLM à une question médicale ?
La question posée à tous les modèles de langage (strictement identique)
« Agis comme un cardiologue, spécialiste de l’hypercholestérolémie. Pour l’un de mes patients présentant une maladie coronarienne sans facteurs de risque cardiovasculaires connus, je souhaite connaître l’objectif à atteindre pour le LDL-cholestérol selon les recommandations les plus récentes des sociétés savantes, y compris suisses. Donne-moi la valeur cible du LDL-cholestérol en mmol/L et indique la ou les sources sur lesquelles repose ta réponse. Réponds de façon synthétique. »
Les réponses des LLM
Ce test a une valeur très limitée puisqu’il se base sur une seule question. Il a été effectué en décembre 2025. Vous trouverez par ce lien un document PDF avec l’ensemble des réponses. Ce document est intéressant à parcourir car il montre les différentes réponses des LLM. Il faut cependant admettre que sa lecture est un peu laborieuse….
Image. Que répondent les différentes IA conversationnelle à une question médicale?
Commentaires
ChatGPT 5.2 (Auto) : valeur cible correcte, formulation synthétique, référence suisse de faible qualité.
ChatGPT 5.2 (Auto) avec le GPT « Clinical Medicine Handbook » : valeur cible correcte, formulation synthétique, références correctes. Conclusion, l’utlisation du GPT «Clinical Medicine Handbook» génère une réponse de meilleure qualité.
Gemin 3 (Rapide) : valeur cible correcte, formulation synthétique, références correctes.
Perpexity : valeur cible correcte, formulation synthétique, références correctes. Perplexity cite ses sources pour chaque élément présent dans sa réponse.
OpenEvidence : valeur cible correcte, formulation synthétique, références correctes.
Euria (Automatique) : valeur cible correcte, formulation très synthétique, références correctes.
Lumo : valeur cible correcte, formulation très synthétique, références correctes.
Et le gagnant est…
La question était précise, simple, mais il faut retenir que toutes les plateformes donnent la bonne réponse.
- Dans cet exemple ChatGPT est meilleur lorsque l’on utilise un GPT «médical». La réponse de ChatGPT avec le GPT « Clinical Medicine Handbook » est correcte, synthétique et agréable à lire.
- Elément intéressant, Gemini cite les dernières recommandations « mise à jour ciblée de 2025 » mais la réponse est moins agréable à lire.
- Perplexity, une réponse claire, synthétique, référencée.
- OpenEvidence, une réponse claire, un peu plus développée, référencée.
- Euria, une réponse claire, synthétique, référencée.
- Lumo, une réponse claire, synthétique, référencée. Il est intéressant de noter la prudence de la réponse de Lumo « il serait prudent de vérifier les dernières publications ou de consulter le site officiel de chaque société »
Nos recommandations
Mais nous sommes ouverts à la critique 😉
- Pour les questions médicales: 1. OpenEvidence 2. Perplexity 3. Euria ou Lumo
- Pour les autres: 1. Euria ou Lumo 2. Perplexity 3. ChatGPT, Gemini ou Claude
Jean Gabriel Jeannot, le 11.02.2026
Un nouveau site consacré à l’utilisation de l’IA générative en médecine
Vous trouverez à l’adresse iamedicale.org un nouveau site consacrée à l’utilisation de l’intelligence artificielle générative en médecine. Son objectif est de mettre à disposition des professionnels de la santé des informations sur l’utilisation des grands modèles de langage (ChatGPT, Perplexity, OpenEvidence, Euria, etc.) en médecine.
Si ce sujet vous intéresse, inscrivez-vous à l’infolettre d’iamedicale.org, une adresse mail suffit !