No dia 3 de março de 2026, tive o privilégio de me juntar a um grupo excecional de oradores na Cimeira da SCRS na UE, em Amesterdão, para uma sessão intitulada IA nas Operações Diárias dos Centros de Investigação. A sala estava lotada, a conversa foi animada e as perguntas da audiência foram exatamente do tipo que indicam que um tema chegou para ficar. As pessoas não estavam a perguntar se a IA é importante na investigação clínica. Estavam a perguntar como usá-la de forma responsável, eficaz e sem infringir os quadros regulamentares que regem o nosso setor.

No painel, contei com a presença de Viviënne van de Walle (MD, PhD, diretora médica e fundadora da PT&R), Alexandra Gerritsen (MBA, CEO e fundadora da UniTriTeam) e Kristof Hadi (PharmD, MSc, diretor associado de envolvimento dos centros de estudo na Takeda). Cada participante do painel trouxe um ponto de vista distinto: operações dos centros de investigação, gestão da rede de centros e estratégia do lado do patrocinador. A diversidade de perspetivas contribuiu para uma discussão genuinamente substantiva.

Neste artigo, pretendo partilhar alguns dos temas principais da sessão, com especial destaque para a vertente regulamentar e de conformidade, que constituiu a espinha dorsal das minhas contribuições para o painel.

A pergunta que todos estão realmente a fazer

Antes de entrarmos nos pormenores regulamentares, vale a pena reconhecer a questão subjacente que permeia quase todas as perguntas na sala: Posso utilizar IA? E, se a utilizar, isso irá causar-me problemas durante uma inspeção?

Estas são preocupações legítimas, e compreendo que as pessoas as levantem. Isso reflete um nível de maturidade regulatória no nosso setor que é, francamente, encorajador. Mas também reflete quanta confusão ainda existe em torno do que a regulamentação da IA realmente implica nos ensaios clínicos atuais e, mais importante ainda, do que ela não implica.

Qual é, na realidade, a situação atual da regulamentação da IA nos ensaios clínicos?

O panorama regulamentar da IA no desenvolvimento de medicamentos sofreu alterações significativas no início de 2025 e ao longo de 2026. Em janeiro de 2025, a FDA publicou o seu primeiro projeto de orientação sobre IA para medicamentos e produtos biológicos, estabelecendo um quadro de avaliação da credibilidade baseado no risco para os modelos de IA utilizados na tomada de decisões regulamentares. Pouco depois, em janeiro de 2026, a FDA e a EMA publicaram os Princípios Orientadores Conjuntos de Boas Práticas de IA no Desenvolvimento de Medicamentos, um marco na harmonização regulamentar internacional que a indústria não deve subestimar.

Três princípios do CDER da FDA sustentam a nova abordagem regulatória: regulamentação adaptativa (iterativa e favorável à tecnologia), regulamentação baseada no risco (supervisão proporcional ao risco que o modelo de IA apresenta) e regulamentação colaborativa (envolvimento de todo o ecossistema de partes interessadas). Esse terceiro princípio é importante. Ele indica que os reguladores não pretendem emitir decretos de cima para baixo. Estão a convidar ao diálogo, e o setor deve aceitar esse convite.

Nem todas as aplicações da IA são iguais, e essa distinção é extremamente importante

Um dos esclarecimentos mais importantes que apresentei durante o painel prendeu-se com o âmbito de aplicação. As orientações da FDA são explícitas: a IA utilizada para apoiar a tomada de decisões regulamentares relativas à segurança, eficácia ou qualidade de um produto está abrangida pelo âmbito regulamentar. A IA utilizada para fins de eficiência operacional nas instalações, incluindo a programação, a revisão de contratos, a elaboração de procedimentos operacionais normalizados (SOP) e a gestão de tarefas administrativas, está geralmente fora desse âmbito.

Esta é uma distinção importante para os centros de investigação e os patrocinadores que procuram determinar qual a infraestrutura regulamentar que precisam de implementar antes de começarem a utilizar ferramentas de IA. A resposta é: depende do que a IA está a fazer e do grau de influência que exerce sobre uma decisão que possa afetar a segurança dos doentes ou a integridade dos dados.

A FDA estabeleceu uma matriz de risco bidimensional prática para ajudar a determinar isso. O primeiro eixo é a influência do modelo: a IA é apenas uma das muitas entradas, ou é o único ou principal determinante de um resultado? O segundo eixo é a consequência da decisão: quão grave seria o impacto se a IA cometesse um erro? Um caso de utilização de baixa influência e baixa consequência (por exemplo: uma ferramenta de IA que redige um e-mail de agendamento) não se assemelha em nada a um caso de alta influência e alta consequência (por exemplo: um modelo de IA que serve como principal classificador de eventos adversos para relatórios regulamentares). A mesma tecnologia pode situar-se em pontos muito diferentes nessa matriz, dependendo da forma como é implementada.

É necessário validar todas as ferramentas de IA que utiliza?

A resposta curta que dei em Amesterdão: não, mas é necessária uma estratégia de validação baseada no risco.

No caso de IA operacional de baixo risco, como ferramentas de agendamento, assistentes gerais de redação e automação administrativa, a verificação básica da precisão, os testes de aceitação pelo utilizador e uma análise padrão de TI/cibersegurança são, em geral, suficientes. Não é necessário apresentar qualquer pedido à FDA. Normalmente, basta um procedimento operacional padrão (SOP) interno que documente a forma como a ferramenta é utilizada.

Para aplicações de risco médio, incluindo a verificação da introdução de dados assistida por IA e indicadores de triagem preliminar, é recomendável realizar testes de precisão documentados em conjuntos de dados representativos, definir métricas de desempenho, implementar controlo de versões e estabelecer mecanismos de supervisão humana. Pode ser necessário incluir documentação no Dossier Principal do Ensaio, e vale a pena considerar o envolvimento precoce do patrocinador.

No caso de IA de alto risco, como o apoio à avaliação de critérios de avaliação ou a deteção de sinais de segurança em que a IA é o principal fator determinante, espera-se uma avaliação completa da credibilidade de acordo com o quadro de sete etapas da FDA. A monitorização do ciclo de vida, a validação independente dos dados de teste e a documentação regulamentar detalhada entram todas em jogo. Fundamentalmente, o ónus principal da validação da IA de alto risco recai normalmente sobre o patrocinador ou requerente, e não sobre o centro. No entanto, os centros continuam a ser responsáveis por compreender como as ferramentas de IA nos seus fluxos de trabalho foram validadas, por utilizá-las de acordo com os procedimentos validados e por documentar e comunicar quaisquer desvios ou comportamentos inesperados.

As plataformas de perguntas e respostas devem deixar de ter medo de fazer perguntas

Alexandra levantou uma questão importante durante a sessão sobre infraestruturas básicas: antes de se pensar na implementação da IA, é necessário saber quais os processos que se pretende melhorar e se a qualidade atual dos dados é suficiente para suportar essa implementação. A IA amplifica o que já existe. Os bons processos e os dados limpos tornam-se ainda melhores; os fluxos de trabalho desorganizados tornam-se ainda mais desorganizados, e mais rapidamente.

Kristof apresentou a perspetiva do patrocinador sobre a forma como a IA está a influenciar as decisões relativas à seleção de centros e países, bem como à monitorização do desempenho, uma perspetiva que os centros fariam bem em compreender. Os patrocinadores recorrem cada vez mais aos dados para tomar decisões de alocação mais informadas, e os centros que operam com sistemas eletrónicos bem validados e fiáveis terão uma vantagem significativa nesse contexto.

Algumas dicas práticas para os locais e patrocinadores

Se o seu site utiliza atualmente IA para agendamento, revisão de contratos ou elaboração de procedimentos operacionais normalizados (SOP), é quase certo que se enquadra na categoria de eficiência operacional: menor escrutínio regulamentar, sem necessidade de apresentação à FDA. O que deve ter em vigor é um SOP interno que regule a forma como a ferramenta é utilizada, verificações básicas de precisão ou qualidade e documentação de formação para o seu pessoal.

Se o seu centro ou organização patrocinadora estiver a considerar a utilização de IA para qualquer atividade relacionada com dados dos participantes, avaliação de resultados ou monitorização da segurança, o cálculo muda significativamente. Envolva-se desde o início, documente tudo minuciosamente e tenha uma visão clara da posição da sua IA na matriz de risco.

Se for um patrocinador que esteja a integrar a IA em qualquer parte da sua função de monitorização ou supervisão, analise atentamente os Princípios Orientadores da FDA-EMA. A ênfase na conformidade com as boas práticas (GxP), incluindo a validação de sistemas informáticos, o controlo de alterações e as pistas de auditoria, aplica-se na íntegra nesse contexto.

Considerações finais

O que mais me impressionou na sessão da SCRS na UE não foi nenhuma resposta específica dada pelo painel. Foi a qualidade das perguntas feitas pela plateia. As instituições já não se questionam se devem ou não adotar a IA. Perguntam-se como fazê-lo de uma forma que resista a um escrutínio rigoroso, proteja os seus pacientes e não crie problemas de conformidade no futuro.

Essa é exatamente a pergunta certa, e é uma pergunta à qual o nosso setor está bem posicionado para responder, especialmente à medida que os quadros regulamentares continuam a amadurecer e o diálogo entre o setor e as entidades reguladoras se aprofunda.

Se desejar debater algum dos temas abordados nesta publicação ou saber como a CRIO apoia a integração de IA em conformidade com as normas nas operações de ensaios clínicos, não hesite em contactar-nos.

Marc Wartenberger é vice-presidente de Conformidade e Segurança na CRIO. O seu extenso trabalho com organismos reguladores, incluindo a função de moderador nas reuniões públicas sobre regulamentação da SCDM e a participação no Conselho Regulador da SCDM, colocou-o na vanguarda do diálogo entre a indústria e os reguladores sobre o tema em constante evolução da IA na investigação clínica. 

Voltar ao blogue

Dê aos locais o que eles precisam e veja o seu estudo ser bem-sucedido.

Agende uma demonstração