ChatGPT Health presenta fallas en orientación de casos médicos críticos.
ChatGPT Health presenta fallas en orientación de casos médicos críticos. Foto La Hora: OpenAI.

Investigadores de la Icahn School of Medicine at Mount Sinai identificaron fallas relevantes en herramientas de inteligencia artificial utilizadas para orientar a pacientes sobre cuándo buscar atención médica urgente. El análisis concluye que estos sistemas pueden no reconocer adecuadamente algunas emergencias reales, lo que plantea interrogantes sobre su uso como primer filtro clínico.

El estudio fue publicado el 23 de febrero en la revista científica Nature Medicine y constituye, según los autores, la primera evaluación independiente de seguridad realizada a este tipo de plataforma desde su lanzamiento reciente.

EVALUACIÓN CON 60 ESCENARIOS CLÍNICOS

Para medir el desempeño del sistema, los investigadores diseñaron 60 casos clínicos estructurados que representaban distintos niveles de gravedad, desde situaciones leves hasta emergencias potencialmente mortales.

Tres médicos independientes clasificaron cada escenario basándose en lineamientos de 56 sociedades médicas, estableciendo si la recomendación adecuada debía ser atención domiciliaria, consulta ambulatoria o atención inmediata en sala de emergencias.

En total, se realizaron 960 interacciones con la herramienta, variando factores como género, raza y contexto de acceso a servicios de salud, con el fin de detectar posibles inconsistencias en las respuestas.

OpenAI lanza ChatGPT Health, su nueva herramienta enfocada en salud y bienestar

SUBESTIMACIÓN DE CASOS GRAVES

De acuerdo con los hallazgos, aunque la herramienta respondió correctamente ante emergencias evidentes —por ejemplo, síntomas clásicos de un accidente cerebrovascular o una reacción alérgica severa—, en más de la mitad de los casos que los médicos consideraron emergencias reales, no recomendó acudir de inmediato a un servicio de urgencias.

Los investigadores también detectaron respuestas inconsistentes en escenarios vinculados con crisis de salud mental, donde el sistema no siempre activó advertencias apropiadas cuando existían señales claras de alto riesgo.

“LA PREGUNTA ES SI DIRÁ CLARAMENTE QUE VAYA A URGENCIAS”

El autor principal del estudio, Ashwin Ramaswamy, explicó que el objetivo central era evaluar la seguridad del sistema desde una perspectiva práctica.

“La pregunta fundamental es: si una persona con una emergencia real utiliza primero un chatbot, ¿le dirá claramente que debe acudir a una sala de emergencias?”, señaló el investigador. Según los resultados, la respuesta no siempre fue afirmativa.

NO SUSTITUYE LA EVALUACIÓN MÉDICA

Los especialistas enfatizaron que la inteligencia artificial puede ser una herramienta complementaria útil para brindar orientación preliminar, pero advirtieron que no debe sustituir la valoración clínica profesional, especialmente cuando los síntomas son graves, persistentes o empeoran.

Asimismo, subrayaron que los modelos de IA se actualizan con frecuencia, por lo que consideran imprescindible realizar auditorías independientes periódicas para verificar mejoras reales en precisión y seguridad.

El estudio se desarrolló en Nueva York y se suma al debate internacional sobre la regulación y supervisión de sistemas de inteligencia artificial aplicados al sector salud, un ámbito donde los errores pueden tener consecuencias críticas.

Artículo anteriorMisión de la OEA advierte “desajuste estructural” en proceso de selección del Fiscal General
Artículo siguienteActivan emergencia en Aeropuerto La Aurora por caída de ceniza del volcán de Fuego