Cerca

LA STORIA

Sostituisce il sale con sostanza tossica

Un 60enne segue un consiglio errato di IA

Quando l’IA ti dice di cambiare sale: il caso del bromuro e un ricovero evitabile

Può una semplice domanda a un chatbot trasformarsi in un problema di salute serio? È quello che è successo a un uomo di 60 anni che, alla ricerca di un sostituto “più sano” del sale da cucina, ha finito per usare il bromuro di sodio nella dieta quotidiana. Tre mesi dopo, allucinazioni, paranoia e confusione lo hanno portato in ospedale. 


Secondo quanto riportato, un 60enne (le generalità non sono state rese note) ha chiesto a ChatGPT, nelle versioni 3.5 o 4, un “valido sostituto” del sale da cucina dopo aver letto dei potenziali effetti nocivi del sodio in eccesso. La risposta proposta dal chatbot è stata il bromuro di sodio, sostanza che il paper specifica essere “valida per altri scopi, come la pulizia”, un dettaglio che l’IA non avrebbe chiarito all’utente. L’uomo ha acquistato il composto online e lo ha inserito nei pasti quotidiani. Dopo circa tre mesi si è presentato al pronto soccorso nel pieno di un episodio psicotico: era convinto che un vicino volesse avvelenarlo, accusava allucinazioni, disturbi della memoria e confusione mentale. La diagnosi: bromismo, una forma di intossicazione cronica da sali di bromuro.


Il bromuro di sodio è un composto chimico che non ha alcuna funzione alimentare. Storicamente i sali di bromuro comparivano in alcuni farmaci da banco, ma il loro uso è stato progressivamente abbandonato proprio per i rischi di tossicità. Non è un condimento, non è una alternativa culinaria e non è destinato al consumo umano.

Resta aggiornato, iscriviti alla nostra newsletter

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su

Caratteri rimanenti: 400