Un hombre de 60 años desarrolló psicosis y otros síntomas severos después de que intercambiara sal de mesa (cloruro de sodio) por bromuro de sodio. Hizo el cambio basado en una recomendación de ChatGPT después de preguntar a la IA por un sustituto de sal para eliminar el cloruro de su dieta.
El hombre fue hospitalizado con una serie de problemas psiquiátricos y neurológicos, incluyendo paranoia, alucinaciones y confusión. Los médicos le diagnosticaron bromismo, o toxicidad por bromuro, una condición rara que resulta de la acumulación de bromuro en el cuerpo. Sus síntomas se resolvieron después de recibir tratamiento médico. Este caso destaca los peligros de utilizar grandes modelos de lenguaje como ChatGPT para consejos médicos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Hey Scam ALTman @sama 👇💀🪦 🥴
Un hombre de 60 años desarrolló psicosis y otros síntomas severos después de que intercambiara sal de mesa (cloruro de sodio) por bromuro de sodio. Hizo el cambio basado en una recomendación de ChatGPT después de preguntar a la IA por un sustituto de sal para eliminar el cloruro de su dieta.
El hombre fue hospitalizado con una serie de problemas psiquiátricos y neurológicos, incluyendo paranoia, alucinaciones y confusión. Los médicos le diagnosticaron bromismo, o toxicidad por bromuro, una condición rara que resulta de la acumulación de bromuro en el cuerpo. Sus síntomas se resolvieron después de recibir tratamiento médico. Este caso destaca los peligros de utilizar grandes modelos de lenguaje como ChatGPT para consejos médicos.