top of page

Historias Clínicas e Inteligencia Artificial

  • Roy McKenzie.
  • 18 may
  • 3 Min. de lectura

Actualizado: 26 may

Describe Health Week | Observatorio de Ética en Salud Digital

18 de mayo de 2025


El Dilema Ético que la Regulación Aún No Alcanza


En hospitales y clínicas de todo el mundo ocurre una transformación que permanece oculta para la mayoría de pacientes. La creación automatizada de historias clínicas mediante inteligencia artificial ha dejado de ser experimental para convertirse en una realidad cotidiana. Este cambio radical sucede sin apenas supervisión legal, exponiendo a pacientes y médicos a riesgos que apenas comenzamos a comprender.

ree

Innovación sin transparencia


La evidencia científica revela una verdad incómoda: casi ningún paciente sabe que sus registros médicos están siendo generados o modificados por sistemas de inteligencia artificial. Según publicó JAMA Network Open en 2023, menos del 8% de los hospitales que usan estas tecnologías informan a sus pacientes sobre la intervención de IA en sus documentos médicos.


Esta práctica viola directamente lo establecido por la Organización Mundial de la Salud, cuya guía sobre ética en IA para salud (2021) es tajante: "los pacientes deben ser informados cuando los sistemas de IA intervienen en cualquier aspecto de su atención médica, incluida la documentación clínica". La Declaración de Helsinki mantiene una postura similar en su reciente actualización sobre tecnologías digitales.


El problema va más allá de simples transcripciones. Estos sistemas están generando impresiones diagnósticas, interpretando síntomas y proponiendo tratamientos con una supervisión humana cada vez menor.


Alucinaciones algorítmicas


Un fenómeno perturbador afecta a estos sistemas: las llamadas "alucinaciones" - información completamente falsa pero presentada como real. En el contexto médico, estos errores resultan particularmente peligrosos por lo convincentes que parecen.


Una investigación publicada en 2024 por el Journal of Medical Internet Research analizó 1,200 historias clínicas creadas parcialmente por IA. Los resultados son alarmantes: el 14% contenía información clínica falsa, y lo peor es que el 62% de estas falsedades pasó inadvertida durante la revisión médica rutinaria.


Estos no son meros fallos técnicos. Un historial médico con datos inventados puede provocar decisiones médicas equivocadas, pruebas innecesarias o pasar por alto patrones cruciales para el diagnóstico correcto.


Datos problemáticos


La precisión de cualquier sistema de IA depende de los datos con que fue entrenado. Un análisis de Nature Medicine (2023) revela algo preocupante: muchos de los sistemas actualmente usados en hospitales fueron entrenados con datos desordenados, sin la validación rigurosa que exigimos a cualquier investigación médica.


Mientras los ensayos clínicos requieren aprobación ética y revisión por pares, los datos para entrenar IA médica suelen provenir de fuentes comerciales cuyas metodologías permanecen secretas, protegidas como propiedad intelectual.


Esta opacidad resulta especialmente problemática en medicina. Los pacientes no son simples conjuntos de datos que responden a patrones predecibles; son personas con historias complejas donde lo biológico, psicológico, social y cultural se entremezcla de formas que difícilmente captan los modelos actuales.


Vacío legislativo


Pese a su rápida adopción, el uso de IA en la creación de historias clínicas opera sin apenas regulación. Un estudio de BMJ Health & Care Informatics (2024) examinó 27 países desarrollados y descubrió que ninguno cuenta con leyes específicas sobre sistemas generativos en documentación médica.


El Reglamento General de Protección de Datos europeo ofrece algunas protecciones generales, pero no aborda las particularidades de los registros médicos automatizados. En Estados Unidos, la FDA ha comenzado a regular el software médico basado en IA, pero se concentra en aplicaciones diagnósticas y terapéuticas, no en sistemas documentales.


Este vacío legal deja preguntas cruciales sin respuesta: ¿Quién responde legalmente por errores generados por la máquina? ¿Qué nivel mínimo de precisión deben alcanzar estos sistemas? ¿Cómo informar al paciente sobre cuánto de su historial fue escrito por una IA?


Marco regulatorio


La ciencia médica señala la urgencia de crear normas que equilibren innovación y seguridad. Organizaciones como la American Medical Informatics Association proponen directrices que podrían servir como base para futuras leyes.


Los pacientes deberían saber explícitamente cuándo una IA interviene en sus registros. Los textos generados automáticamente necesitan una verificación humana real, no solo formal. Estos sistemas tendrían que probar su precisión mediante estudios independientes antes de usarse con pacientes reales.


Las historias clínicas deberían indicar claramente qué partes fueron generadas o modificadas por una IA, con procedimientos sencillos para corregir información errónea.


La complejidad del problema no justifica la pasividad regulatoria. La velocidad con que se implementan estas tecnologías contrasta con la lentitud para desarrollar normativas, creando un desequilibrio que amenaza principios básicos de la medicina.


La historia clínica no es un simple trámite administrativo; es el documento fundamental que guía decisiones que pueden salvar o poner en riesgo vidas. Su integridad no puede sacrificarse en aras de la eficiencia o el ahorro.


Mientras la tecnología avanza, la comunidad médica enfrenta un imperativo ético ineludible: garantizar que la innovación sirva a los pacientes, nunca a costa de su seguridad o su derecho a saber quién –o qué– está documentando su atención médica.


Historias del día

bottom of page