Os agentes de IA podem trabalhar em infraestruturas críticas? Os sistemas de agentes vão além da automação clássica ao tomar decisões probabilísticas e, portanto, são capazes de detectar, analisar e resolver erros antes que as pessoas sejam alertadas. Porém, por ser baseada em probabilidade, a tecnologia esbarra nos requisitos determinísticos dos sistemas CRÍTICOS. Usando o exemplo de um cenário de resposta a incidentes consistente, ainda pode ser desenvolvida uma arquitetura de referência que incorpore o agente baseado em LLM no terreno para que cada decisão possa ser rastreada, cada ação auditável e cada rescisão documentada.
A introdução da IA de agente nas operações de TI substitui o componente probabilístico de tomada de decisão que antes era reservado para scripts determinísticos: em vez de regras fixas – se a carga da CPU for > 90%, então escalonável – os agentes apoiados pelo LLM analisam padrões de erros complexos, extraem contexto da documentação e desenvolvem estratégias de solução dinâmicas. Para os operadores CRÍTICOS, esta é uma oportunidade para manter a escassez de mão de obra qualificada e aumentar a complexidade das ameaças, mas ao mesmo tempo está a surgir um novo perfil de risco.
- Os agentes de IA podem detectar automaticamente incidentes em ambientes CRÍTICOS, mas apenas com políticas rígidas, caminhos de decisão auditáveis e aprovação humana para ações críticas.
- Na arquitetura de referência, cada ação do agente deve ser totalmente verificada com um ID de execução, resumo do modelo e hash de política.
- Esses requisitos podem ser implementados com a orquestração LangGraph, que fornece a cada decisão artefatos verificáveis graças à aplicação de políticas OPA e trilhas de auditoria WORM. Desta forma, os eventos podem ser completamente reconstruídos.
Cornelius May é consultor e formador na Söldner Consult GmbH. Ele implementa e dá suporte a projetos complexos de infraestrutura e possui diversas certificações, como Certified Kubernetes Administrator.
Eldar Sultanow é estrategista de TI na Capgemini com foco em arquitetura de software moderna e especialista do Centro Aeroespacial Alemão.
Três regulamentos diferentes para a utilização de sistemas de IA, que também podem ser entendidos como requisitos arquitetónicos: As diretrizes NIS2 exigem uma gestão de risco verificável e processos operacionais documentados – como parte de uma organização de segurança, os agentes que avaliam os dados de registo na resposta a incidentes e iniciam contramedidas cumprem os mesmos requisitos que outros sistemas de segurança. A legislação da UE em matéria de IA tem potencial para classificar os sistemas de IA que atuam como componentes de segurança em CRITICAL como IA de alto risco, exigindo supervisão humana (artigo 14.º) e registo automatizado do ciclo de vida (artigo 12.º). O BSI define esses requisitos no guia para sistemas de detecção de ataques (OH SzA) e no catálogo de critérios AIC4.
Este é um trecho do artigo heise Plus “Agentic AIOps: Agent AI em infraestrutura crítica”. Com uma assinatura heise Plus você pode ler todos os artigos.



