IA et sécurité : puis-je poser une question de santé à ChatGPT ?
Disponibles à tout moment, les IA ont réponse à tout. Tant et si bien qu’il est parfois tentant de leur soumettre nos symptômes pour savoir si un rendez-vous chez le médecin est nécessaire… Mais attention : leur utilisation n’est pas sans risques.
Comprendre le fonctionnement des IA : pertinence, entraînement, modèle économique
Depuis 2021, le mot “IA” désigne dans notre langage commun les LLM : Large Language Model. Il s’agit d’agents qui traduisent des opérations informatiques dans notre langage et qui ont été développées pour apprendre en autonomie grâce aux interactions avec les humains. Certains chercheurs estiment que parler d’intelligence artificielle est un abus de langage : les LLM ne sont pas intelligents, dans la mesure où ils suivent des réglages informatiques prédéfinis par des humains. Leur rôle est de piocher une réponse dans leur base de données – issue du web – et de la retranscrire dans un langage humain adapté à l’utilisateur. Comme tout système informatique, les LLM reposent sur le modèle binaire du 0 ou du 1, du oui ou du non. Avant de donner une réponse, les IA identifient plusieurs critères :
- La personne qui pose la question : son âge, son niveau de maîtrise du sujet, sa catégorie socio-professionnelle… Les IA peuvent récupérer quantités d’informations à notre sujet sur le web. Demandez-lui qui vous êtes, la réponse pourra vous surprendre !
- Le “prompt” : il s’agit de la question posée à l’IA. Selon sa formulation, la réponse apportée variera.
- Ce que l’utilisateur a envie d’entendre. C’est bien là le principal problème des LLM. Leur but est d’offrir une expérience agréable que l’utilisateur aura envie de prolonger. Ils vont donc fournir non pas la “vraie” réponse, mais vous apporter une réponse qui vous confortera dans ce que vous pensez, ce qui peut poser un vrai danger, notamment pour les informations de santé.
Les LLM ont été développés pour s’entraîner constamment grâce aux questions que vous posez, afin d’analyser votre niveau de satisfaction : poursuivez-vous la conversation ? Cliquez-vous sur un lien ? Consultez-vous de nouveau le chat ? L’entraînement est une phase dans laquelle des humains continuent d’intervenir régulièrement, afin d’aiguiller l’IA vers des réponses adaptées : pas question, par exemple, que l’IA communique la recette d’une bombe artisanale (ce que ChatGPT faisait à ses débuts !). Des ingénieurs, mais aussi des petites mains recrutées dans des pays peu développés, qui relisent chaque jour des centaines de réponses et sont chargées de faire “comprendre” à l’IA ce qu’elle peut dire et ne pas dire. A noter que l’IA n’est pas paramétrée pour répondre “je ne sais pas” ou “je n’arrive pas à trouver l’information”. Elle doit vous fournir une réponse coûte que coûte !
Enfin, il est nécessaire de rappeler que le modèle économique des LLM est resté flou pour le grand public. Si les versions professionnelles sont payantes, Mistral, Claude ou ChatGPT sont disponibles en version gratuite pour le tout-venant, sans publicité ni abonnement. Là, l’adage classique du marketing se vérifie : “Si vous ne payez pas pour le produit, c’est que vous êtes le produit”. En effet, les conversations avec les IA fournissent une quantité astronomique de data : des informations liées à votre profil, qui peuvent ensuite être revendues à des entreprises pour entraîner des modèles d’IA ou utilisées à des fins marketing. Ces données sont souvent anonymisées : elles sont reliées à un numéro unique, mais qui ne permet pas de vous identifier. C’est ce qui permet à Google, Facebook ou Instagram de vous partager des publicités personnalisées qui correspondent à vos besoins.
Newsletter
Inscrivez vous à la newsletter
Utiliser ChatGPT pour des questions de santé : quels dangers ?
Lorsque vous utilisez un LLM pour poser une question de santé, vous vous exposez à plusieurs risques. Tout d’abord, plusieurs études scientifiques ont identifié que les IA ont des difficultés à identifier des situations qui relèvent d’une urgence : toujours dans l’optique de rassurer et de fournir une expérience agréable à l’utilisateur, elles limitent le ton alarmiste, même dans des situations qui le nécessitent. Vous pouvez donc passer à côté d’une urgence à cause de l’IA qui aura opté pour un message rassurant. Cela est d’autant plus vrai pour les femmes et les personnes racisées : l’IA reprend ici les biais humains classiques qu’on retrouve parfois chez les professionnels de santé (syndrome méditerranéen, minimisation des douleurs chez les femmes, etc.)
Autre problème : les informations erronées. ChatGPT, Mistral ou Claude ne sont pas reliés aux bases de données médicales, mais uniquement à l’Internet grand public. Les informations qu’ils communiquent peuvent donc être obsolètes ou fausses. Les IA grand public n’ont pas été développées pour analyser de la littérature scientifique, mais pour fournir une réponse à tout prix. En outre, l’IA n’est pas capable de faire la différence entre le vrai et le faux. Il lui est donc difficile de vérifier la véracité d’une information ou de présenter des sources, car son cheminement ne suit pas la logique humaine, mais l’objectif de fournir une réponse pertinente et agréable.
Enfin, en partageant des informations médicales à une IA, vous exposez des données sensibles sur le web, qui peuvent être dérobées lors d’une attaque ou utilisées à des fins commerciales. Globalement, les experts en cybersécurité recommandent de ne pas partager à un LLM les informations suivantes :
- Numéro de Sécurité sociale, de permis de conduire, de pièce d’identité, votre date de naissance, votre numéro de téléphone… Toutes ces informations, si elles sont dérobées, peuvent servir à usurper votre identité.
- Des informations médicales personnelles ou des antécédents médicaux. L’IA n’est pas soumise au secret professionnel, contrairement à un médecin. En outre, elle peut difficilement les analyser, faute d’expérience et de possibilité de poser un raisonnement logique et sourcé.
- Vos informations de paiement : numéro de compte, RIB, IBAN, numéro de carte bancaire… Vous vous exposez à des risques de fraude.
- Des informations liées à votre activité professionnelle. Celles-ci ne sont en effet pas protégées par le RGPD au même titre que les informations privées. Elles peuvent donc alimenter des sources de data que consulteront vos concurrents. Des fuites de données importantes ont eu lieu pour cause de partage d’informations professionnelles sur une IA.
- Des identifiants, mots de passe ou codes d’accès.
Devis et adhésion en ligne
Votre devis personnalisé santé et prévoyance en moins de 3 minutes
Si vous avez besoin de réponses rapides à un problème de santé, vous pouvez utiliser une IA, à condition de respecter quelques règles de sécurité.
Tout d’abord, avez-vous besoin d’une réponse 100% personnalisée ou générique ? Si vous cherchez à savoir si vos symptômes relèvent de la grippe, mieux vaut demander tout simplement quels sont les signes d’une infection grippale, plutôt que d’exposer vos symptômes personnels à l’IA. Vous aurez ainsi une réponse plus claire et vous ne confierez pas à un LLM la responsabilité de poser un diagnostic.
Autre cas de figure : vous vous demandez s’il faut consulter un médecin ou attendre de voir si les symptômes disparaissent d’eux-mêmes. Vous pouvez poser une question générique à l’IA, sans dévoiler d’informations sur votre état de santé, ou, si vous avez besoin d’une réponse plus personnalisée, vous adresser à un professionnel de santé de proximité comme un pharmacien.
Depuis quelque temps, les jeunes parents utilisent massivement l’IA pour avoir des réponses aux mille questions tout à fait normales qu’ils se posent concernant leur enfant : sommeil, état de santé… En effet, il n’est pas rare qu’un bébé attende le soir, voire la nuit, pour tousser, vomir ou montrer des signes d’inconfort. Si votre enfant a moins de deux mois, ne prenez aucun risque : appelez immédiatement le 15 pour parler à un médecin. N’ayez pas peur de déranger ou “d’appeler pour rien”. Un nourrisson est fragile et il vaut mieux vous assurer que tout va bien plutôt que de rester dans l’incertitude. Pour les enfants plus grands, en l’absence de symptômes alarmants, les IA peuvent fournir des réponses génériques sur la pédiatrie, mais il est déconseillé de leur poser des questions pour un tiers. Pensez aussi à donner le bon exemple à vos enfants : quand on va mal, on consulte un médecin.
Enfin, vous pouvez avoir besoin d’aide pour comprendre des résultats d’analyse ou un examen d’imagerie. Les comptes-rendus ne sont pas toujours très lisibles et il est tentant de demander de l’aide à l’IA pour s’y retrouver. Tout d’abord, ne partagez pas vos résultats avec une IA. Ce sont des données sensibles qui ne doivent pas être partagées sur le web, auprès d’autres personnes que les professionnels de santé. Si vous pouvez poser quelques questions sur les niveaux normaux de telle ou telle hormone et de ce qui peut influencer vos résultats, rien ne remplace le diagnostic médical. Pour gagner du temps, vous pouvez envoyer votre compte-rendu à votre médecin en utilisant une plateforme sécurisée ou lui téléphoner pour lui poser toutes vos questions.
© iStock
Partager