Glooko XT

Intelligence Artificielle et santé : l’exemple ludique de ChatGPT

Intelligence Artificielle et santé : l’exemple ludique de ChatGPT

Le numérique a changé nos vies et nos comportements dans de nombreux domaines. Et c’est loin d’être fini avec les multiples applications de l’intelligence artificielle. La médecine et la santé n’est pas en reste. Qui n’a jamais été tenté de faire son propre diagnostic en ligne, sans passer par la case médecin ? Certaines applications vont encore plus loin qu’une simple question posée sur un moteur de recherche, comme le propose ChatGPT*, qui vous répond, dans n’importe quel style rédactionnel.

INTELLIGENCE ARTIFICIELLE ET SANTÉ

La révolution médicale numérique

La médecine n’échappe pas à la révolution numérique. Ces dernières années, le numérique a bouleversé la pratique. Ainsi, le recours à la télésurveillance a contribué à stabiliser les maladies chroniques. L’emploi du digital se retrouve dans de nombreuses applications : dossiers patient électroniques, plateformes de coordination, télémédecine, téléexpertise, téléassistance, Health data hub… Avec l’intelligence artificielle (IA), les outils et applications vont encore plus loin. Aujourd’hui, notamment grâce au machine learning, voire au deep learning, des algorithmes permettent de prédire des risques, de lire des images et même de poser des diagnostics. Et ce, avec des résultats parfois spectaculaires. 

Une nouvelle relation médecin-patient

L’intégration de ces outils et techniques implique une nouvelle manière d’exercer la médecine, mais aussi une relation médecin-patient différente. Le patient aussi a changé. Il est de plus en plus acteur de son parcours. Il a accès à de multiples sources d’informations (pas toujours très fiables). Son médecin n’est plus l’unique détenteur du savoir médical. Il se renseigne par lui-même, avec plus ou moins de succès, s’interroge et cherche des réponses depuis son canapé sur son smartphone. 

LE CAS DE CHATGPT

En termes d’outil d’IA accessible au grand public, le ChatGPT fait grand bruit ces dernières semaines. On en a beaucoup parlé, notamment pour les devoirs de nos enfants générés en un claquement de doigt. Il n’est pas nécessairement conçu pour être utilisé à des fins médicales, cependant, les patients peuvent tout à fait s’en emparer pour obtenir un avis médical ou des conseils en matière de santé. 

Qu’est-ce que ChatGPT ?

Développé par OpenAI, société spécialisée dans l’IA, ChatGPT est un modèle de langage qui génère des textes à la demande. Plus qu’un éditeur de textes, il peut simuler des conversations humaines de manière pertinente. Il a été “entraîné” avec un très large éventail de textes de tout style (journalistique, littéraire, cinématographique, télévisuel, conversationnel…). Il est ainsi en capacité de produire du contenu adapté à tout type de demande de façon cohérente. Le site n’est disponible qu’en anglais, mais génère des contenus dans de nombreuses langues, dont le français. À noter de plus qu’il s’améliore au cours du temps puisque son apprentissage se fait en continu. 

Encore faut-il poser la bonne question !

Nous l’avons testé, et effectivement c’est assez bluffant ! Mais encore faut-il poser la bonne question, et ce, de manière précise. Pour une réponse pertinente, la question doit par exemple préciser le style d’écriture souhaité, le public ou le support visé, le niveau scolaire désiré ou encore le type de détails voulu. Malgré quelques répétitions (de termes), certains passages peu détaillés ou encore des tournures peu usitées (mais correctes), les textes produits sont fluides et cohérents. 

Et en termes médicaux ?

Aux questions médicales, les réponses sont correctes et assez précises, tout en étant adaptées au grand public. Il est aussi rassurant de voir que ChatGPT, après avoir donné des informations scientifiques, a conclu systématiquement ses réponses à nos questions “diagnostiques” par une phrase préconisant une consultation médicale du type « Il est important de consulter un médecin pour un examen et des tests afin de déterminer la cause de ces symptômes » ou « Il est important de souligner que seul un professionnel de santé qualifié peut établir un diagnostic de diabète. Si vous suspectez un risque de diabète, il est recommandé de consulter un professionnel de santé pour effectuer les tests appropriés et obtenir un diagnostic précis ». 

VERS UNE RÉGLEMENTATION

Quand l’outil IA est entre les mains du médecin, qui a appris à s’en servir, à l’interpréter et qu’il maîtrise les connaissances médicales, il peut lui fournir une aide précieuse dans sa pratique. En revanche, sorti du cadre, un patient, “profane”, pourrait l’utiliser à mauvais escient et appliquer des conseils inadaptés, voire dangereux. L’idée est donc de poser des réglementations. Le législateur a d’ailleurs développé le concept de “garantie humaine” dans la nouvelle réglementation européenne pour l’IA en santé. Cette garantie impose d’insérer dans les algorithmes d’IA des points d’intervention humaine pour limiter le phénomène de boîte noire (où l’on ne contrôle ni ne comprend le raisonnement). De plus, les dispositifs numériques en santé devront répondre à la même législation que les dispositifs médicaux instrumentaux, avec notamment un marquage CE, une évaluation clinique, et un suivi. 

Il faut garder en tête que ces outils, qui peuvent se révéler très utiles, ne sont pas destinés à remplacer l’humain, mais à l’aider dans son quotidien, dans sa pratique. Et, aujourd’hui, en ce qui concerne la médecine, comme ChatGPT nous l’a confirmé, rien ne peut vraiment remplacer un examen clinique !

*Chat = conversation ; GPT = modèle de transduction de langage prédictif. 

Tester ChatGPT ici

Le site est très souvent victime de son succès, et se retrouve régulièrement surchargé et donc inutilisable pendant un laps de temps variable.

MKTG-0209-FR-fr 01