Regulamento da UE sobre a IA e IA de Alto Risco em Dispositivos Médicos: Preparar para a Conformidade, Competir pelo Futuro
6 min de leitura

A Inteligência Artificial já não é apenas uma vantagem tecnológica na indústria de dispositivos médicos – está a tornar-se uma função regulamentada de confiança, responsabilidade e desempenho. A Europa estabeleceu uma fronteira distinta entre o progresso tecnológico e a responsabilidade ao adotar o Ato formal de Inteligência Artificial da UE em 1 de agosto de 2024.

A nova legislação fornece aos fabricantes de dispositivos médicos, especificamente aqueles que trabalham com Software como Dispositivo Médico (SaMD) alimentado por IA, tanto requisitos regulamentares como indicadores de mercado.

O EU AI Act: Um Novo Paradigma Regulamentar

O Ato estabelece novos padrões para o desenvolvimento, avaliação e operações de monitorização de IA dentro do território da União Europeia através das suas medidas abrangentes. Todos os desenvolvedores de soluções de IA que visam o mercado da União Europeia devem compreender que a mensagem relativa à implementação da IA permanece clara e concisa. O sistema regulamentar determina que qualquer sistema que afete o diagnóstico de saúde ou o tratamento do paciente, ou a saúde, deve ser classificado como de Alto Risco.

Compreender o Essencial do EU AI Act: Baseado no Risco, Específico do Setor, Orientado pelo Impacto

O EU AI Act integra um modelo de classificação baseado no risco que cria três categorias: Práticas Proibidas, Sistemas de IA de Alto Risco e Sistemas de Risco Limitado. A IA médica quase sempre se enquadra na categoria de Alto Risco, particularmente sob o Artigo 6.º, n.º 1, alínea b), que classifica qualquer componente de IA de um dispositivo médico que exija revisão por um Organismo Notificado como de alto risco por defeito.

Sistemas de IA para diagnóstico, planeamento de terapia, apoio à decisão clínica e monitorização remota – todos se enquadram nesta categoria de Alto Risco. Isto inclui aqueles que empregam:

  • Modelos de Machine Learning (ML)
  • Algoritmos de Deep Learning
  • Redes Neurais ou Classificadores Estatísticos
  • Software de Previsão ou Reconhecimento de Padrões incorporado em Dispositivos Médicos

Requisitos Essenciais para Fabricantes Ao Abrigo do EU AI Act:

A implementação de mandatos técnicos essenciais dentro de um Sistema de Gestão da Qualidade requer atenção dos fabricantes para uma conformidade eficaz.

  • Gestão de Risco (Artigo 9.º):
    Estratégias organizadas de gestão de risco de IA devem ser construídas e mantidas pelos fabricantes, uma vez que abordam a instabilidade do modelo de preconceito algorítmico, as violações do sistema de segurança e os problemas relacionados com o preconceito algorítmico. Além disso, de acordo com a IEC 62304, a classificação de segurança do software é um passo crítico. Cada item de software deve ser classificado como Classe A, B ou C com base no risco. Esta classificação determina a profundidade das atividades exigidas ao longo do ciclo de vida do software. É importante incorporar esta classificação nas fases iniciais de conceção e avaliação de risco.
  • Governança de Dados (Artigo 10.º):
    Conjuntos de dados de alta qualidade devem ser selecionados pelos fabricantes, juntamente com amostras representativas e informações anotáveis e imparciais para a seleção de conjuntos de dados, entre outros critérios.
  • Documentação Técnica (Artigo 11.º):
    Organizar um sistema de documentação ativo para exibir informações completas sobre a estrutura do sistema de IA, juntamente com medições de desempenho, controlos operacionais e componentes de segurança. De acordo com a IEC 82304, uma Especificação de Requisitos de Segurança do Produto também deve ser incluída durante a fase de finalização dos requisitos. Este documento define as necessidades essenciais de segurança, proteção e usabilidade e deve ser revisto como um resultado principal.
  • Transparência e Explicabilidade (Artigo 13.º):
    Os utilizadores precisam de receber descrições acessíveis da lógica do sistema de IA que expliquem tanto as capacidades operacionais como os limites do sistema, juntamente com a justificação dos seus processos de tomada de decisão.
  • Supervisão Humana (Artigo 14.º):
    Profissionais que recebem formação podem usar procedimentos autorizados para prevenir danos causados por decisões automatizadas, mantendo o controlo operacional através desses procedimentos.
  • Registo e Rastreabilidade (Artigo 12):
    As entradas do sistema, juntamente com as saídas e os registos da árvore de decisão, devem ser totalmente registadas, especialmente durante a implementação clínica para atividades de vigilância pós-comercialização.
  • Monitorização Pós-Comercialização (Artigo 72):
    Devem ser implementadas diretrizes para medir continuamente o desempenho do sistema de IA após a sua implementação comercial. O sistema deve utilizar análises reais do desempenho operacional efetivo para integrar o feedback dos utilizadores e otimizar os sistemas de controlo de risco. Além disso, a norma IEC 62304 exige um Plano de Manutenção de Software documentado. Este plano deve definir como as anomalias de software pós-lançamento, as correções e as atualizações são geridas e validadas. As atividades de manutenção devem estar alinhadas com as práticas de monitorização a longo prazo.
  • Marcação CE e Registo (Artigo 17):
    Ao aplicar a marca CE em dispositivos médicos de IA, estes precisam de satisfazer os requisitos tanto do Regulamento dos Dispositivos Médicos (MDR 2017/745) ou do Regulamento dos Dispositivos Médicos de Diagnóstico In Vitro (IVDR 2017/746) como da Lei da IA da UE.

Mais do que Regulamentação: Uma Revisão Abrangente do Ciclo de Vida

A transformação vai além dos requisitos regulamentares, porque exige uma reformulação completa do processo de desenvolvimento do ciclo de vida do sistema de IA, desde a criação até à manutenção. A excelência do desempenho técnico cede lugar à supervisão regulamentar permanente e ao acompanhamento dos padrões éticos.

Incorporando os princípios da IEC 62304, é necessário um Processo Formal de Resolução de Problemas de Software ao longo de todo o ciclo de vida. Os fabricantes devem definir procedimentos para identificar, documentar, analisar e resolver anomalias de software. Isto deve ser integrado em cada etapa de controlo de qualidade, especialmente após a verificação.


A gestão de SOUP (Software de Origem Desconhecida) também é obrigatória. Cada componente SOUP deve ser identificado, avaliado quanto ao risco e controlado através de revisões da documentação de design e arquitetura. Isto garante que as dependências externas são seguras e geridas de forma adequada.


Além disso, a IEC 82304 enfatiza processos definidos para instalação, gestão de configuração e desativação do sistema. Estes devem ser validados e documentados durante as fases finais de desenvolvimento antes do lançamento comercial. Um processo de mitigação de riscos de cibersegurança também deve ser integrado no SDLC e verificado em cada etapa do ciclo de vida.

Adoção da IA na Europa: O Panorama de 2024

O relatório de 2024 do Eurostat sobre a utilização da IA nas empresas europeias mostra um padrão crescente para a implementação da IA nas empresas europeias durante 2024:

  • 41,2% das grandes empresas utilizam atualmente inteligência artificial.
  • 34,1% das empresas beneficiam nas operações de marketing e vendas.
  • 27,5% beneficiam nas operações comerciais.
  • 6,1% beneficiam na logística.

A lacuna na adoção da IA é evidente entre grandes e pequenas empresas:

  • A tecnologia de IA é aplicada para segurança TIC por 46,4% das grandes empresas, mas apenas 17,2% das pequenas empresas a utilizam para este fim.
  • Uma percentagem significativa de 34,7% das grandes empresas emprega IA em processos de produção, em comparação com as empresas mais pequenas, com 21,6% de utilização de IA.
  • A adoção industrial da inteligência artificial enfrenta vantagens e dificuldades, porque 13,5% das empresas da UE aplicam atualmente tecnologias de IA.

 Estes números demonstram uma dupla realidade: por um lado, a IA já está a reformular funções empresariais críticas; por outro, existe uma lacuna substancial na escalada da adoção, particularmente em domínios regulamentados como a saúde, onde a confiança e a segurança são pré-requisitos para o crescimento.

A Europa Não Está Apenas a Regulamentar – Está a Investir para Escalar a IA Confiável

Ao contrário das ondas anteriores de transformação digital, a abordagem da UE à IA combina política com investimento proativo.

Um relatório do Europarl reconhece que a inovação em IA deve ser acelerada, mas não à custa da segurança do paciente ou da supervisão ética.

  • 1,8 mil milhões de dólares em apoio financeiro para startups europeias de IA (2023)
  • A UE recebe apenas 6% do capital de risco global em IA, com investimentos quatro vezes menores do que nos US.

As Iniciativas de Financiamento Incluem:

  • Programa Europa Digital: 1,3 mil milhões de euros (2025-2027)) para instalações de testes e centros de desenvolvimento de competências.
  • InvestAI: Parte da estratégia da Década Digital, com o objetivo de angariar €200 mil milhões para:
    • Fábricas de IA
    • Serviços na nuvem
    • Redes de inovação transfronteiriças

As instituições da UE estabelecem um ambiente de apoio através de alterações regulamentares que permitem sistemas de IA éticos, clinicamente fiáveis e escaláveis para os fabricantes de SaMD.

O que isto significa para as empresas de dispositivos médicos

Os regulamentos do Regulamento IA da UE, juntamente com as suas implicações comerciais essenciais, apresentam dois pontos principais que os fabricantes de dispositivos médicos devem abordar.

Estes pontos são ainda mais reforçados quando alinhados com as normas IEC 62304 e IEC 82304, que fornecem estrutura, rigor de classificação, continuidade pós-lançamento e governação de segurança ao longo do ciclo de vida do software.

Prepare-se para a Conformidade Antes da Entrada no Mercado

  • Realizar análise de lacunas do Regulamento IA
  • Atualizar ficheiros técnicos, RMFs e SOPs
  • Integrar mecanismos de rastreabilidade desde a fase de conceção
  • Envolver-se precocemente com os Organismos Notificados para pré-avaliação
  • Planear a Vigilância Pós-Comercialização a longo prazo com ciclos de feedback

Converter a Conformidade em Vantagem Competitiva

  • As empresas que lideram na conformidade também lideram na confiança e na quota de mercado
  • Construir QMS com alinhamento com o Regulamento IA desde a fase de conceção
  • Posicionar a transparência e a auditabilidade como fatores de diferenciação no mercado
  • Aproveitar a Marca CE + conformidade com a IA como um selo de confiança

Perguntas Frequentes (FAQs) sobre o Regulamento IA da UE para Dispositivos Médicos

Para ajudar os fabricantes de dispositivos médicos a navegar no cenário de conformidade em constante evolução, aqui estão algumas das perguntas mais frequentes:

  1. O que é a Lei da IA da UE e como impacta os fabricantes de dispositivos médicos?
    A Lei da IA da UE é o primeiro quadro regulamentar abrangente de IA do mundo. Impõe requisitos obrigatórios para a gestão de riscos, governança de dados, supervisão humana e vigilância pós-comercialização, especialmente para IA médica de alto risco, como ferramentas de diagnóstico e software de apoio à decisão clínica.
  2. Quais sistemas de IA em dispositivos médicos são classificados como de alto risco ao abrigo da Lei de IA da UE?
    Qualquer sistema de IA utilizado no diagnóstico, planeamento terapêutico ou monitorização de pacientes é considerado de alto risco. Isto inclui SaMD baseado em machine learning, modelos de deep learning e ferramentas de IA que influenciam decisões ou resultados de saúde.
  3. Quais são os principais requisitos de conformidade para dispositivos médicos com IA ao abrigo da Lei da IA da UE?
    Os fabricantes devem assegurar:
    • Rastreabilidade das entradas e saídas
    • Qualidade e governança de dados robustas
    • Mecanismos de supervisão humana
    • Documentação técnica completa
    • Marcação CE, tanto ao abrigo das normas MDR/IVDR como das normas da Lei da IA.
  4. Como se relaciona a Lei da IA da UE com o MDR (2017/745) e o IVDR (2017/746)?
     

    A Lei da IA da UE complementa o MDR/IVDR, adicionando requisitos específicos de IA, como explicabilidade, transparência de algoritmos e controlo de riscos. Todos os dispositivos com IA devem cumprir uma dupla conformidade – as regras tradicionais para dispositivos médicos e as novas normas de IA.

    Os líderes de mercado abordam a Lei da IA da UE não como um obstáculo, mas como um modelo para construir tecnologias médicas fiáveis e de alto desempenho. Adotam a conformidade ao nível da arquitetura e utilizam-na para orientar a estratégia, o marketing e o posicionamento da marca.

    As empresas de dispositivos médicos devem integrar a preparação para a Lei da IA em todo o seu ecossistema de produtos e conformidade para obter uma vantagem competitiva. Contacte-nos hoje para alinhar a sua inovação com a conformidade e transformar a preparação regulamentar numa vantagem competitiva.

 

Subscrever o Blogue da Freyr

Política de Privacidade