El 3 de marzo de 2026, tuve el privilegio de unirme a un grupo excepcional de ponentes en la Cumbre de la SCRS de la UE celebrada en Ámsterdam para una sesión titulada La IA en las operaciones diarias de los centros de investigación. La sala estaba abarrotada, la conversación fue muy animada y las preguntas del público fueron exactamente del tipo que te indican que un tema ha cobrado verdadera relevancia. La gente no preguntaba si la IA es importante en la investigación clínica. Preguntaban cómo utilizarla de forma responsable, eficaz y sin infringir los marcos normativos que rigen nuestro sector.

En la mesa redonda me acompañaron Viviënne van de Walle (doctora en Medicina, doctora en Filosofía, directora médica y fundadora de PT&R), Alexandra Gerritsen (MBA, directora ejecutiva y fundadora de UniTriTeam) y Kristof Hadi (doctor en Farmacia, máster en Ciencias, director asociado de Participación de Centros de Estudio en Takeda). Cada ponente aportó un punto de vista distinto: operaciones de los centros de investigación, gestión de redes de centros y estrategia desde el punto de vista del promotor. La diversidad de perspectivas dio lugar a un debate verdaderamente sustantivo.

En esta entrada, quiero compartir algunos de los temas clave de la sesión, prestando especial atención al aspecto normativo y de cumplimiento, que constituyó el eje central de mis aportaciones al panel.

La pregunta que todo el mundo se está haciendo en realidad

Antes de entrar en los detalles normativos, conviene reconocer la pregunta subyacente que se esconde tras casi todas las dudas que se plantean en la sala: ¿puedo utilizar la IA? Y si la utilizo, ¿me causará problemas durante una inspección?

Se trata de inquietudes legítimas, y agradezco que la gente las plantee. Esto refleja un nivel de madurez normativa en nuestro sector que, francamente, resulta alentador. Pero también pone de manifiesto la gran confusión que sigue existiendo en torno a cómo es realmente la regulación de la IA en los ensayos clínicos hoy en día y, lo que es más importante, cómo no es.

¿En qué punto se encuentra realmente la regulación de la IA en los ensayos clínicos?

El panorama normativo en materia de IA en el desarrollo de medicamentos experimentó cambios considerables a principios de 2025 y a lo largo de 2026. En enero de 2025, la FDA publicó su primer borrador de directrices sobre IA para medicamentos y productos biológicos, en el que se establecía un marco de evaluación de la credibilidad basado en el riesgo para los modelos de IA utilizados en la toma de decisiones normativas. Poco después, en enero de 2026, la FDA y la EMA publicaron conjuntamente los Principios rectores de buenas prácticas de IA en el desarrollo de fármacos, un hito en la armonización normativa internacional que el sector no debe subestimar.

Tres principios del CDER de la FDA sustentan el nuevo enfoque regulador: la regulación adaptativa (iterativa y orientada a facilitar el avance tecnológico), la regulación basada en el riesgo (una supervisión proporcional al riesgo que presenta el modelo de IA) y la regulación colaborativa (la participación de todo el ecosistema de partes interesadas). Este tercer principio es fundamental. Indica que los reguladores no pretenden dictar normas desde arriba. Están invitando al diálogo, y el sector debería aceptar esa invitación.

No todos los usos de la IA son iguales, y esa distinción es de suma importancia

Una de las aclaraciones más importantes que ofrecí durante la mesa redonda se refería al ámbito de aplicación. Las directrices de la FDA son explícitas: la IA utilizada para respaldar la toma de decisiones reglamentarias relativas a la seguridad, la eficacia o la calidad de un producto entra dentro del ámbito de aplicación normativo. La IA utilizada para mejorar la eficiencia operativa en Clinicas, incluyendo la programación de citas, la revisión de contratos, la redacción de procedimientos operativos estándar y la gestión de tareas administrativas, queda, por lo general, fuera de ese ámbito.

Esta distinción es importante para Clinicas compañías farmacéuticas de determinar qué grado de infraestructura regulatoria deben establecer antes de empezar a utilizar herramientas de IA. La respuesta es: depende de qué haga la IA y de cuánta influencia tenga sobre una decisión que pueda afectar a la seguridad de los pacientes o a la integridad de los datos.

La FDA ha establecido una matriz de riesgo bidimensional práctica para ayudar a tomar esta decisión. El primer eje es la influencia del modelo: ¿es la IA uno de los muchos factores que intervienen, o es el único o principal determinante de un resultado? El segundo eje es la consecuencia de la decisión: ¿qué gravedad tendría el impacto si la IA se equivocara? Un caso de uso de baja influencia y baja consecuencia (por ejemplo, una herramienta de IA que redacta un correo electrónico de programación) no se parece en nada a uno de alta influencia y alta consecuencia (por ejemplo, un modelo de IA que sirve como clasificador principal de eventos adversos para la notificación reglamentaria). La misma tecnología puede situarse en lugares muy diferentes de esa matriz dependiendo de cómo se implemente.

¿Es necesario validar todas las herramientas de IA que utilizas?

La respuesta breve que di en Ámsterdam: no, pero sí necesitas una estrategia de validación basada en el riesgo.

En el caso de la IA operativa de bajo riesgo, como las herramientas de planificación, los asistentes generales de redacción y la automatización administrativa, suele bastar con una verificación básica de la precisión, pruebas de aceptación por parte de los usuarios y una revisión estándar de TI y ciberseguridad. No es necesario presentar ninguna solicitud ante la FDA. Por lo general, basta con un procedimiento operativo estándar (SOP) interno que documente cómo se utiliza la herramienta.

Para aplicaciones de riesgo medio, como la verificación de la introducción de datos asistida por IA y las alertas de cribado preliminar, es recomendable contar con pruebas de precisión documentadas en conjuntos de datos representativos, métricas de rendimiento definidas, control de versiones y mecanismos de supervisión humana. Puede ser necesario incluir la documentación en el archivo maestro del ensayo, y conviene considerar la participación temprana del promotor.

En el caso de la IA de alto riesgo, como el apoyo a la evaluación de criterios de valoración o la detección de señales de seguridad en las que la IA es el factor determinante principal, se espera una evaluación completa de la credibilidad según el marco de siete pasos de la FDA. En este contexto, entran en juego la supervisión del ciclo de vida, la validación independiente de los datos de las pruebas y la documentación reglamentaria detallada. Es fundamental señalar que la responsabilidad principal de la validación de la IA de alto riesgo recae normalmente en el promotor o el solicitante, y no en el centro. Sin embargo, Clinicas siendo responsables de comprender cómo se han validado las herramientas de IA en sus flujos de trabajo, de utilizarlas según los procedimientos validados y de documentar y notificar cualquier desviación o comportamiento inesperado.

La pregunta que Clinicas dejar de tener miedo de hacer

Alexandra planteó una cuestión importante durante la sesión sobre la infraestructura básica: antes de plantearse la implementación de la IA, es necesario saber qué procesos se quieren mejorar y si la calidad de los datos actuales es suficiente para respaldarla. La IA potencia lo que ya existe. Los buenos procesos y los datos limpios mejoran; los flujos de trabajo desorganizados se vuelven aún más caóticos, y más rápido.

Kristof expuso el punto de vista de los patrocinadores sobre cómo la inteligencia artificial está influyendo en las decisiones relativas a la selección de centros y países, así como en el seguimiento del rendimiento, una perspectiva que Clinicas bien en comprender. compañías farmacéuticas cada vez más compañías farmacéuticas los datos para tomar decisiones de asignación más fundamentadas, y Clinicas operen con sistemas electrónicos limpios y debidamente validados contarán con una ventaja significativa en ese contexto.

Algunas recomendaciones prácticas para Clinicas compañías farmacéuticas

Si su centro utiliza actualmente la inteligencia artificial para la programación, la revisión de contratos o la redacción de procedimientos operativos estándar (SOP), es casi seguro que se encuentra en la categoría de eficiencia operativa: menor control regulatorio y sin necesidad de presentar solicitudes a la FDA. Lo que debería tener establecido es un procedimiento operativo estándar interno que regule el uso de la herramienta, controles básicos de precisión o calidad y documentación de formación para su personal.

Si su centro o su organización patrocinadora está considerando el uso de la IA para cualquier aspecto relacionado con los datos de los participantes, la evaluación de los criterios de valoración o la supervisión de la seguridad, el panorama cambia sustancialmente. Implíquese desde el principio, documente todo minuciosamente y tenga muy claro dónde se sitúa su IA en la matriz de riesgos.

Si usted es un patrocinador que está incorporando la inteligencia artificial en cualquier aspecto de sus funciones de seguimiento o supervisión, le recomendamos que revise detenidamente los Principios Rectores de la FDA y la EMA. El énfasis en el cumplimiento de las normas GxP —incluida la validación de los sistemas informáticos, el control de cambios y los registros de auditoría— se aplica plenamente en ese contexto.

Reflexiones finales

Lo que más me llamó la atención de la sesión de la SCRS en la UE no fue ninguna respuesta concreta del panel, sino la calidad de las preguntas formuladas por el público. Clinicas ya no Clinicas si deben incorporar la IA; se preguntan cómo hacerlo de una manera que resista el escrutinio, proteja a sus pacientes y no genere problemas de cumplimiento normativo en el futuro.

Esa es precisamente la pregunta adecuada, y nuestro sector está en una posición idónea para responderla, sobre todo ahora que los marcos normativos siguen madurando y el diálogo entre el sector y los organismos reguladores se intensifica.

Si desea comentar alguno de los temas tratados en esta publicación o conocer cómo CRIO facilita la integración de la IA conforme a la normativa en las operaciones de ensayos clínicos, no dude en ponerse en contacto con nosotros.

Marc Wartenberger es vicepresidente de Cumplimiento Normativo y Seguridad en CRIO. Su amplia trayectoria en el ámbito de los organismos reguladores —entre otras cosas, como moderador de los foros públicos sobre regulación de la SCDM y miembro del Consejo Regulador de la SCDM— le ha situado en primera línea del diálogo entre la industria y los reguladores sobre el tema en constante evolución de la inteligencia artificial en la investigación clínica. 

Volver al blog

Proporcione a Clinicas necesitan y vea cómo su estudio alcanza el éxito.

Programar una demostración