De “Dr Google” à ChatGPT : pourquoi les patients utilisent l’IA pour comprendre leurs symptômes

La gen Z : un tourisme 2.0

Face à une douleur suspecte ou une inquiétude nocturne, le premier réflexe n’est plus d’attendre l’ouverture du cabinet médical, mais de dégainer son smartphone. Si « Dr Google » faisait déjà partie de nos vies, l’arrivée de l’IA conversationnelle change la donne. Entre besoin de réassurance immédiate et risques de désinformation, j’ai mené l’enquête sur ce nouveau rapport à l’autodiagnostic.

C’est un scénario que nous avons tous vécu : une recherche Google pour un simple mal de tête qui se termine, trois clics plus tard, par une auto-proclamation de maladie rare. Mais aujourd’hui, la recherche médicale en ligne franchit une nouvelle étape. Avec ChatGPT ou Claude, on ne se contente plus de lire des forums : on discute avec la machine. On lui décrit nos symptômes, on précise l’intensité de la douleur, on lui demande de nous rassurer.

Pour décrypter ce phénomène, j’ai diffusé un questionnaire auprès d’utilisateurs afin de comprendre comment l’IA s’immisce dans leur parcours de santé. Les résultats sont sans appel : la machine est devenue le premier filtre avant la consultation, un outil de gestion de l’anxiété autant qu’une source d’information.

L’interaction plutôt que la simple lecture

Ce qui change avec l’IA, c’est l’interactivité. Là où Google nous renvoyait vers une liste de liens parfois anxiogènes, l’IA propose un dialogue structuré. Cette impression de « diagnostic personnalisé » transforme l’utilisateur passif en un patient qui pré-analyse sa propre situation. Ce n’est plus seulement de l’information, c’est une conversation.

Pourquoi cette urgence de consulter... son écran ?

Pourquoi ne pas simplement attendre le rendez-vous chez le médecin ? La réponse tient en deux mots : incertitude et délais. Dans un système de santé parfois sous tension, où obtenir un rendez-vous peut prendre des jours, l’IA offre une réponse à la seconde. Elle ne remplace pas le diagnostic, mais elle comble le vide émotionnel. Est-ce grave ? Dois-je m’inquiéter ? En clarifiant certains termes médicaux ou en listant des causes probables, l’IA joue le rôle de « calmant numérique ».

Une confiance à double tranchant

Mon questionnaire révèle une ambivalence intéressante : si la pratique est massivement adoptée, la confiance, elle, reste prudente. Les utilisateurs ne sont pas dupes. Ils voient l’IA comme un complément, un moyen de préparer leur consultation plutôt que de s’en dispenser.

C’est là que le bât blesse. Si la forme est convaincante, le fond peut être trompeur. L’IA n’a pas de stéthoscope. Elle ne connaît pas vos antécédents, ne voit pas votre teint et n’interprète pas vos analyses biologiques. Une étude publiée par BMJ Quality & Safety rappelle d’ailleurs que la fluidité du langage des chatbots peut masquer des approximations dangereuses, notamment sur le dosage des médicaments.

Vers une santé connectée et encadrée

Ce recours à l’IA ne doit pas être vu comme un phénomène isolé, mais comme une brique de la transformation numérique de notre système de santé. Les autorités l’ont bien compris. En mars 2026, la CNIL et la Haute Autorité de Santé (HAS) ont scellé un partenariat pour encadrer ces pratiques. L’idée ? Ne pas freiner l’innovation, mais garantir que ces outils respectent l’éthique et la sécurité des données.

Un guide est d’ailleurs en cours de finalisation pour accompagner les professionnels et les patients dans ce nouvel écosystème. Car en santé, la technologie ne vaut rien sans la confiance.

Conclusion : L’IA, une alliée… mais pas un médecin

L’enjeu de demain n’est pas de savoir si nous utiliserons l’IA pour comprendre nos symptômes — c’est déjà une réalité. La question est de savoir comment nous allons l’intégrer intelligemment dans notre parcours de soins. L’IA doit rester un support à la compréhension, un outil d’empowerment du patient, sans jamais se substituer à l’expertise clinique. L’innovation est là pour compléter la main du médecin, pas pour la remplacer.

Sources :

  • BMJ Quality & Safety (2024). Research on the safety and reliability of AI-generated medical advice.

  • CNIL (2024) – IA et santé : enjeux éthiques.
  • HAS (2024) – Évaluation des dispositifs médicaux numériques.
  • Partenariat CNIL & HAS (2026) – Consultation publique sur le bon usage de l’IA en santé.