Intelligence artificielle
Le conseil nutritionnel de Chat GPT le conduit… à l’hôpital
Suivant les conseils de ChatGPT, un homme de 60 ans a remplacé le sel de table par du bromure de sodium pendant près de trois mois et a fini à l’hôpital intoxiqué.

- Par Diane Cacciarella
- Commenting
- Robert Way/iStock
ChatGPT semble toujours avoir la réponse à nos questions. Et pourtant, un homme de 60 ans en a fait l’expérience : l’intelligence artificielle peut se tromper gravement. Il lui a demandé par quel ingrédient remplacer le sel de table lors des repas.
Du bromure de sodium pour remplacer le sel de table
Le Chatbot lui a conseillé du bromure de sodium. Il s’agit d’un composé chimique qui détruit les mycobactéries. Il est notamment utilisé pour traiter l’eau des piscines, selon les autorités canadiennes. Un rapport détaillé évoque plusieurs risques liés à la prise alimentaire, en s’appuyant sur des études souvent réalisées sur des rats : signes histopathologiques sur la glande thyroïde, diminution du poids relatif de la prostate et des testicules, ataxie (incoordination des mouvements), réduction de l’activité motrice, comportement agité, hyperexcitabilité, baisse de la fertilité, etc.
D’après The Independent, au début des années 1990, le bromure de sodium était présent dans de nombreux médicaments en vente libre pour traiter l'insomnie, l'hystérie et l'anxiété. Mais des symptômes neuropsychiatriques et dermatologiques ont été observés après une prise excessive.
Ignorant l’aspect toxique de ce produit, l’homme de 60 ans a mis du bromure de sodium sur ses plats pendant trois mois. D’après un rapport médical publié dans la revue l’American College of Physicians, petit à petit, il a développé plusieurs symptômes : paranoïa, confusion mentale, hallucinations auditives et visuelles, fatigue et troubles du comportement. Il a fini par être hospitalisé en urgence.
L’homme était intoxiquée à cause du bromure de sodium
Une fois à l’hôpital, les médecins posent le diagnostic. Le patient souffre de bromisme, une intoxication provoquée par le bromure de sodium. Il a été traité par perfusion et électrolytes. Lorsque son état physique était stabilisé, il a été admis au service de psychiatrie de l'hôpital pour traiter la paranoïa et les hallucinations. Il a indiqué aux médecins avoir développé d’autres symptômes comme l’acné faciale et des angiomes cerises. En tout, il a été hospitalisé pendant trois semaines.
“Inspiré par ses études de nutrition à l'université, il a décidé de mener une expérience personnelle pour éliminer le chlorure de son alimentation”, écrivent les auteurs, précisant qu’il a remplacé le sel de table par du “bromure de sodium acheté sur Internet après avoir consulté ChatGPT, où il avait lu que le chlorure pouvait être remplacé par du bromure, probablement à d'autres fins, comme le nettoyage”.
Il faut donc rester prudent avec ChatGPT qui peut aussi se tromper. D’après une étude publiée en 2023 dans la revue Radiology, l’intelligence artificielle fournit des informations de santé correctes dans 88 % des cas. Le reste du temps, elles sont inexactes et parfois même fictives.