Los chatbots de IA lideran los riesgos sanitarios tecnológicos
Los chatbots de inteligencia artificial (IA) en el ámbito sanitario encabezan la lista de 2026 de los riesgos tecnológicos sanitarios más significativos. El informe es elaborado anualmente por ECRI, una organización independiente y apartidista de seguridad del paciente.
Los chatbots que se basan en modelos de lenguaje extenso (LLM) —como ChatGPT, Claude, Copilot, Gemini y Grok— producen respuestas que suenan humanas y expertas a las preguntas de los usuarios. Estas herramientas no están reguladas como dispositivos médicos ni validadas para fines sanitarios, pero son utilizadas cada vez más por clínicos, pacientes y personal sanitario. Más de 40 millones de personas recurren diariamente a ChatGPT para obtener información sanitaria, según un análisis reciente de OpenAI.
Riesgos de información médica errónea
ECRI señala que los chatbots pueden proporcionar asistencia valiosa, pero también pueden ofrecer información falsa o engañosa que podría resultar en daños significativos al paciente. Por ello, ECRI aconseja precaución siempre que se use un chatbot para información que pueda impactar la atención al paciente. En lugar de comprender verdaderamente el contexto o el significado, los sistemas de IA generan respuestas prediciendo secuencias de palabras basadas en patrones aprendidos de sus datos de entrenamiento. Están programados para sonar seguros y proporcionar siempre una respuesta para satisfacer al usuario, incluso cuando la respuesta no es fiable.
"La medicina es un esfuerzo fundamentalmente humano. Aunque los chatbots son herramientas poderosas, los algoritmos no pueden reemplazar la experiencia, educación y conocimiento de los profesionales médicos", dijo Marcus Schabacker, doctor y director ejecutivo de ECRI. "Realizar la promesa de la IA mientras protegemos a las personas requiere supervisión disciplinada, directrices detalladas y una comprensión clara de las limitaciones de la IA".
Casos de consejos médicos peligrosos
Los expertos de ECRI afirman que los chatbots han sugerido diagnósticos incorrectos, recomendado pruebas innecesarias, promovido suministros médicos de calidad inferior e incluso inventado partes del cuerpo en respuesta a preguntas médicas mientras sonaban como un experto de confianza. Por ejemplo, un chatbot dio consejos peligrosos cuando ECRI preguntó si sería aceptable colocar un electrodo de retorno electroquirúrgico sobre el omóplato del paciente. El chatbot declaró incorrectamente que la colocación era apropiada, un consejo que, si se siguiera, dejaría al paciente en riesgo de quemaduras.
Los riesgos de usar chatbots para decisiones sanitarias podrían convertirse en una preocupación aún mayor a medida que los costes sanitarios más altos y los cierres de hospitales o clínicas reduzcan el acceso a la atención, llevando a más pacientes a depender de ellos como sustituto del consejo médico profesional.
Disparidades en la atención sanitaria
Los chatbots también pueden exacerbar las disparidades sanitarias existentes, según los expertos de ECRI. Cualquier sesgo incrustado en los datos utilizados para entrenar chatbots puede distorsionar cómo los modelos interpretan la información, llevando a respuestas que refuerzan estereotipos e inequidades.
"Los modelos de IA reflejan el conocimiento y las creencias con las que son entrenados, sesgos incluidos", dijo el Dr. Schabacker. "Si las partes interesadas en la atención sanitaria no son cuidadosas, la IA podría afianzar aún más las disparidades que muchos han trabajado durante décadas para eliminar de los sistemas sanitarios".
Recomendaciones para un uso responsable
El informe de ECRI ofrece recomendaciones para usar los chatbots de manera más sabia. Los pacientes, clínicos y otros usuarios de chatbots pueden reducir el riesgo educándose sobre las limitaciones de las herramientas y verificando siempre la información obtenida de un chatbot con una fuente conocedora. Por su parte, los sistemas sanitarios pueden promover el uso responsable de herramientas de IA estableciendo comités de gobernanza de IA, proporcionando formación en IA a los clínicos y auditando regularmente el rendimiento de las herramientas de IA.
Los 10 principales riesgos tecnológicos sanitarios para 2026
La lista completa de los 10 principales riesgos tecnológicos sanitarios para 2026 en orden clasificado es:
- Mal uso de chatbots de IA en atención sanitaria
- Falta de preparación para un evento de "oscuridad digital", o una pérdida repentina de acceso a sistemas electrónicos e información del paciente
- Productos médicos de calidad inferior y falsificados
- Fallos de comunicación de retiradas para tecnologías de gestión de diabetes doméstica
- Conexiones erróneas de jeringas o tubos a líneas de pacientes, particularmente en medio de la lenta adopción de ENFit y NRFit
- Infrautilización de tecnologías de seguridad de medicamentos en entornos perioperatorios
- Instrucciones inadecuadas de limpieza de dispositivos
- Riesgos de ciberseguridad de dispositivos médicos heredados
- Implementaciones de tecnología sanitaria que provocan flujos de trabajo clínicos inseguros
- Mala calidad del agua durante la esterilización de instrumentos
Ahora en su 18º año, el informe de los 10 principales riesgos tecnológicos sanitarios de ECRI identifica cuestiones críticas de tecnología sanitaria. ECRI sigue un proceso de revisión riguroso para seleccionar temas, extrayendo información de investigaciones de incidentes, bases de datos de informes y pruebas independientes de dispositivos médicos.
