Uomo ha rischiato di morire dopo aver seguito una dieta chiesta a ChatGPT

Un 60enne ha rischiato la vita, per aver seguito i consigli dietetici forniti da ChatGPT.

Un uomo di 60 anni ha sviluppato il bromismo (intossicazione da bromuro) seguendo indicazioni non sicure fornite dall’intelligenza artificiale ChatGPT. Il bromismo era comune un secolo fa, ma oggi è raro. Questo caso dimostra come le risposte convincenti dell’intelligenza artificiale possano ancora essere pericolosamente sbagliate.

L’uomo voleva eliminare il sale da cucina (cloruro di sodio) dalla sua dieta. Invece di ridurlo, ha cercato un sostituto completo. Dopo aver chiesto a un chatbot di intelligenza artificiale, ha sostituito il sale con 
il bromuro di sodio. Quel composto un tempo era presente in vecchi sedativi e in alcuni prodotti industriali. Tuttavia, non è sicuro da usare come alimento.

Usò bromuro di sodio in ogni pasto per tre mesi. Poi fu colpito da un’ondata di sintomi: paranoia, allucinazioni uditive e visive, sete intensa, affaticamento, insonnia, scarsa coordinazione, acne facciale e un’eruzione cutanea.

Temeva che il suo vicino lo stesse avvelenando, evitò l’acqua del rubinetto e la distillò da solo. Quando cercò di lasciare l’ospedale durante la valutazione, i medici lo sottoposero a un ricovero psichiatrico obbligatorio per la sua sicurezza.

I medici hanno identificato il bromismo , causato da un’elevata concentrazione di bromuro nell’organismo. La condizione può scatenare sintomi neurologici, psichiatrici e cutanei. Era molto più comune quando i sali di bromuro venivano prescritti per ansia e insonnia.

Gli esami di laboratorio hanno anche mostrato pseudoipercloremia, una falsa lettura di cloruro elevato, perché il bromuro interferiva con il test. Questo artefatto può confondere la diagnosi.

I medici gli hanno somministrato fluidi per via endovenosa, correzione elettrolitica e farmaci antipsicotici a breve termine. I suoi sintomi sono migliorati nell’arco di tre settimane. È stato dimesso in condizioni stabili e le sue condizioni sono rimaste stabili al follow-up di due settimane.

Consigli pratici

  1. 1-) Non sostituire mai gli ingredienti alimentari con sostanze chimiche suggerite online senza una consulenza medica.

2-) Fate attenzione alle “alternative” al sale: molte non sono fisiologicamente equivalenti.

3-) Se dopo un cambiamento di dieta compaiono sintomi, interrompere il cambiamento e cercare assistenza medica.

4-) Utilizzare l’intelligenza artificiale solo per scopi didattici generali; non considerarla un consiglio medico.

L’intelligenza artificiale generativa può sembrare sicura di sé, ma omettere avvertimenti critici. Per qualsiasi cosa che influisca sulla salute, in particolare dieta, farmaci o integratori, consultate prima un professionista qualificato . Una sostituzione errata può essere pericolosa.

FONTE: Anomalien

Seguiteci su Facebook

Marco Buoso
Marco Buoso
Esploratore del mistero e dell’occulto. Viaggiando per il mondo ho visto cose che non so spiegare... e forse è meglio così. Le racconto qui, senza filtri e senza certezze, solo domande che non fanno dormire. Se cerchi risposte, sei nel posto sbagliato. Se cerchi verità scomode, resta.

Ultimi articoli

Related articles