Les dangers et les limites de l’intelligence artificielle

Objectifs: à la fin de cet article, vous aurez un aperçu des limites de l’IA, déjà simplement pour comprendre pourquoi vous ne devez pas considérer toutes les réponses de ces outils comme des vérités. Vous aurez aussi un aperçu de leurs dangers, probablement aussi nombreux que leurs utilités.

Les outils d’intelligence artificielle générative ont de très nombreuses utilités, il faut aussi cependant connaître leurs limites et leurs dangers. Cet article n’a pas la prétention d’être exhaustif, il donne simplement quelques exemples.

La qualité des réponses

La qualité des réponses varie bien sûr selon l’outil utilisé, selon la façon dont on formule une question mais aussi en fonction des données utilisées pour entrainer la machine. Il faut aussi savoir que les questions sur des sujets récents pourront donner des réponses fausses puisque les données d’entrainement sont limitées à une certaine date. Les outils d’intelligence artificielle générative ne sont pas des logiciels de connaissances mais des logiciels linguistiques.

L’article Quality and safety of artificial intelligence generated health information publié en mars 2024 dans le British Medical Journal apporte un éclairage intéressant sur cette complexe question de la qualité de l’information santé générée par ces outils. On peut y lire “les progrès rapides de l’IA constituent un défi actuel fondamental. L’une des conséquences de la publication fréquente de nouveaux modèles d’IA ou de mises à jour de modèles d’IA existants est que les performances et les risques associés peuvent changer rapidement. Par exemple, dans notre étude, Copilot de Microsoft a démontré des garanties efficaces pour empêcher la production de désinformation en matière de santé en septembre 2023, mais trois mois plus tard, ces garanties n’étaient plus présentes”. Les auteurs de cet article citent deux sources d’informations “pour les lecteurs désireux d’approfondir leur compréhension de la sécurité et de l’éthique de l’IA dans le domaine de la santé”: la première les orientations de l’Organisation mondiale de la santé sur l’éthique et la gouvernance de l’IA pour la santé, la deuxième le rapport du Service de recherche du Parlement européen sur les applications, les risques, l’éthique et les impacts sociétaux de l’IA dans les soins de santé.

Les biais

Aucune intelligence artificielle n’est neutre, elle ne pense pas par elle-même, elle est programmée par des humains qui y injectent leur mode de pensée. Il existe aussi un biais qui vient de l’origine des données avec lesquels elles ont été entrainées. Le plus souvent les données utilisées proviennent d’Occident, elles reprennent donc les représentations et les croyances de nos sociétés, donc aussi les stéréotypes.

Les hallucinations

L’une des autres grandes limites des LLM est la création de fausses informations, appelées «hallucinations». En pratique, ceci correspond à la restitution d’une réponse dont certains éléments sont inventés. ChatGPT ne sait pas dire « je ne sais pas », il va toujours proposer une réponse, même si elle est fausse. Une façon de limiter cet effet d’hallucinations est, lorsqu’on utilise un outil d’AI générative, de définir le contexte de sa demande avec précision.

Une illustration est visible sur l’image ci-dessous. En demandant à l’outil d’IA de Microsoft Copilot la création d’une image d’un médecin souriant qui examine une patiente, on obtient l’étrange image d’un médecin et d’une patiente reliés par un stéthoscope. L’outil a bien compris qu’un stéthoscope pouvait être visible sur cette image, il s’est trompé en le plaçant dans les oreilles de la patiente.

Les risques de l’IA

En mai 2023, les principaux acteurs de l’IA signaient une déclaration qui a fait grand bruit: “Limiter les risques d’extinction liés à l’intelligence artificielle devrait être une priorité mondiale.” Les avantages de l’IA sur l’être humain sont nombreux. Mais les IA ont-elles une conscience? Faut-il avoir peur de l’intelligence artificielle ? – RTS découverte (3 minutes).

« Réussir à créer l’IA serait le plus grand événement de l’histoire humaine. Malheureusement, il pourrait également être le dernier, à moins que nous n’apprenions à éviter les risques ».

Stephen Hawking, physicien

Les fakenews

L’intelligence artificielle générative permet de créer du contenu original, tel que des images, des textes ou des vidéos. Cette créativité peut être utilisée pour créer de fausses informations, par exemple de fausses images ou de fausses vidéos. Il n’est plus possible de se fier à l’image, vous ne pouvez plus dire que vous croyez à quelque chose car vous l’avez vu. Vous avez probablement déjà vu les photos du Pape en doudoune ou du président Macron en éboueur. Avec la diffusion de ces contenus sur les réseaux sociaux, les dégâts peuvent être immenses, en particulier à une époque où la modération de ces contenus ne cesse de s’affaiblir. La création d’une fausse image d’une célébrité peut avoir de lourdes conséquences mais c’est certainement beaucoup plus grave lorsqu’on songe à l’utilisation de ces outils à des fins politiques, avec, selon de nombreux experts, des menaces possibles sur les démocraties.

La protection des données

Les modèles d’IA générative nécessitent souvent de vastes ensembles de données pour apprendre et pour générer du contenu. Cela soulève des préoccupations quant à la confidentialité des données personnelles utilisées. Étant donné les risques potentiels associés à l’utilisation de l’IA générative, il est essentiel de mettre en place des réglementations et des cadres de gouvernance appropriés pour encadrer son utilisation.

De quelles données sont nourries les intelligences artificielles ? Gros plan sur le “web scraping”, le modèle d’apprentissage de ChatGPT qui consiste à parcourir le web pour y stocker des données : textes, photos, vidéos… Le problème ? Parmi elles peuvent se trouver des données dites “personnelles”. L’intelligence artificielle et les données personnelles – RTS découverte (3 minutes).

Pour les questions médicales, cela implique de facto de ne pas utiliser de données personnelles.

A retenir: il est impératif de connaître les limites de l’IA, déjà simplement pour ne pas considérer toutes ses réponses comme des vérités. Il est aussi indispensable d’en connaître ses dangers, probablement aussi nombreux que ses utilités. 

Jean Gabriel Jeannot, le 15 mai 2024

NB: Retrouvez tous les articles déjà publiés sur la page L’IA pour les médecins – La formation.

Cet article fait partie d’une série d’articles consacrés à l’intelligence artificielle. Leur objectif est de permettre aux professionnels de la santé d’acquérir les connaissances de base sur l’intelligence artificielle, en particulier sur la forme dont on parle le plus actuellement, l’intelligence artificielle générative (donc sur des outils comme ChatGPT). Cela signifie connaître les applications utiles aux médecins, qu’ils sachent comment les utiliser, mais aussi qu’ils en connaissent les limites et les dangers. Vous retrouverez l’ensemble de ces articles sur la page l’intelligence artificielle pour les médecins.