10
Fév 2026
Comme un Mardi...
Un homme de 60 ans, cherchant à éliminer le chlorure de sodium (sel de table) de son alimentation, a interrogé ChatGPT sur des alternatives. L’IA lui a suggéré de remplacer le sel par du bromure de sodium pour une diète « sans chlorure ».
Il a suivi ce conseil pendant trois mois, utilisant le bromure de sodium comme substitut de sel dans sa cuisine.
Il a développé un bromisme (intoxication chronique au brome), une maladie neurologique et psychiatrique rare, très répandue au début du XXᵉ siècle lorsque le bromure était utilisé comme sédatif ou antiépileptique, et a présenté une psychose paranoïaque (il pensait que son voisin l’empoisonnait), une tentative de fuite de l’hôpital, une acné sévère sur le visage, une soif extrême, de l’insomnie ainsi que de la confusion, des tremblements et d’autres troubles neurologiques.
Il a été hospitalisé en urgence, attaché pour sa sécurité, et traité pour psychose puis pour bromisme (dialyse, hydratation massive).
Il s’en est sorti après plusieurs jours, mais l’incident est devenu un cas d’école. Les auteurs de l’article, publié dans les Annales de médecine interne, Université de Washington, ont testé eux-mêmes ChatGPT : l’IA suggère effectivement le bromure de sodium sans avertissement clair sur la toxicité, sans poser de questions sur le contexte médical et sans rediriger vers un professionnel, et ils concluent que les IA comme ChatGPT peuvent générer des inexactitudes dangereuses et propager de la désinformation médicale. Les médecins doivent désormais demander aux patients : « Où avez-vous trouvé cette information ? » (y compris sur l’IA).
Le bromisme est si rare aujourd’hui qu’il est considéré comme une maladie « d’époque victorienne ». Cet incident rappelle brutalement les limites actuelles des chatbots pour les conseils de santé.