El caso de un hombre que fue hospitalizado por seguir un consejo de ChatGPT y las alarmas que enciende sobre la IA

El caso de un hombre que fue hospitalizado por seguir un consejo de ChatGPT y las alarmas que enciende sobre la IA

Un error de inteligencia artificial en salud alerta sobre la urgencia de usarla con responsabilidad.

Enlace generado

Resumen Automático

15/08/2025 17:53
Fuente: Prensa Libre 

La inteligencia artificial ha revolucionado múltiples aspectos de la vida cotidiana, desde asistentes virtuales hasta sistemas de recomendación. Sin embargo, un caso reciente, reportado por Univisión, expone los graves riesgos que puede implicar el uso irresponsable de esta tecnología en cuestiones de salud.

Según el medio estadounidense, un hombre de 60 años fue hospitalizado durante tres semanas, tras seguir una recomendación nutricional de ChatGPT que lo llevó a consumir bromuro de sodio como sustituto de la sal común.

El paciente, quien buscaba reducir su consumo de sodio, consultó al chatbot sobre alternativas a la sal tradicional. La respuesta del sistema incluyó el bromuro de sodio como opción, una sustancia altamente tóxica para el consumo humano.

Como consecuencia, el hombre desarrolló una severa intoxicación que se manifestó con paranoia, alucinaciones, insomnio y erupciones cutáneas, por lo que requirió atención médica especializada y prolongada.

Este incidente ilustra una problemática creciente: la tendencia de las personas a recurrir a sistemas de inteligencia artificial para obtener información médica, sin considerar las limitaciones ni los riesgos inherentes de estas herramientas. Los chatbots, aunque sofisticados, no poseen la capacidad de comprender el contexto específico de cada individuo ni pueden evaluar las particularidades médicas de cada caso.

El riesgo se agrava si se considera que estos sistemas funcionan mediante predicción de palabras basada en patrones obtenidos de datos masivos disponibles en internet. Como explica la doctora Grace C. Y. Peng, experta en inteligencia artificial médica de los Institutos Nacionales de Salud de Estados Unidos (NIIH por sus siglas en inglés), “estos chatbots en realidad no entienden lo que uno está preguntando, simplemente miran las frases y hacen predicciones sobre lo que vendrá después”.

Riesgos de la automedicación digital

El caso del bromuro de sodio no es un hecho aislado, sino un síntoma de una problemática más amplia: la búsqueda de información médica en fuentes no autorizadas. La democratización del acceso a la información, aunque beneficiosa en muchos aspectos, ha creado una falsa sensación de competencia médica entre los usuarios de internet.

Los algoritmos de inteligencia artificial pueden presentar sesgos importantes si se entrenan con datos incompletos o no representativos, como advierte un análisis del Gobierno de España sobre los retos de la IA. En el ámbito médico, estos sesgos pueden derivar en recomendaciones inadecuadas o peligrosas para la salud de los usuarios.

Además, la inteligencia artificial carece del juicio clínico que distingue a los profesionales de la salud. Como indica la doctora Ellen Fitzsimmons-Craft, investigadora en salud mental de la Universidad de Washington, “es posible que puedan indicar algo que sea el consejo médico correcto en un sentido general, pero es posible que no sea el consejo médico adecuado para usted personalmente”.

Recomendaciones para un uso responsable de la IA

Para prevenir tragedias como la del bromuro de sodio, es fundamental establecer pautas claras sobre el uso de inteligencia artificial en asuntos de salud.

Según expertos del NIIH, los usuarios deben comprender que los chatbots no sustituyen la consulta médica profesional y que toda información obtenida de estos sistemas debe ser validada por un profesional de la salud.

Además, antes de hacer cualquier cambio en su estilo de vida, dieta o automedicarse es importante la evaluación de un profesional de la salud.