24/08/2025
⚠️ Un uomo ha sviluppato una psicosi dopo aver seguito i consigli di ChatGPT sulla sostituzione del sale.
Dopo tre mesi di dieta, ha manifestato sintomi tra cui allucinazioni, paranoia e confusione, richiedendo alla fine una tenuta psichiatrica involontaria di tre settimane.
L'uomo di 60 anni non aveva precedenti psichiatriche.
Il paziente ha sostituito il cloruro di sodio, sale da tavola, con bromuro di sodio, un composto vietato dalla FDA dal 1975 a causa dei suoi effetti tossici.
I medici gli hanno diagnosticato il bromismo, una condizione storicamente legata all'avvelenamento da bromuro, un tempo comune prima che la sostanza venisse regolata.
Secondo un caso report di Annals of Internal Medicine, i sintomi del paziente sono migliorati con antipsicotici ed elettroliti. Mentre l'esatto scambio di ChatGPT non poteva essere confermato, l'equipe medica ha testato ChatGPT 3.5 e ha scoperto che suggerisce il bromuro come possibile sostituto del cloruro senza emettere un avviso sulla salute. Questo caso sottolinea i potenziali pericoli derivanti dall'uso di strumenti IA per decisioni mediche, in particolare quando questi strumenti non riescono a verificare l'intento o il contesto dell'utente. Il paziente si è ripreso completamente, ma l'incidente ricorda che l'intelligenza artificiale non sostituisce il parere medico professionale.
Wainberg, Z. et al. (2025). Annali di Medicina Interna.