Os agentes de inteligência artificial (IA) estão se tornando cada vez mais integrados aos sistemas empresariais, ultrapassando outras formas de software em termos de acesso e conexões. Isso representa um novo e amplo vetor de ataque que as equipes de segurança precisam gerenciar, mas ainda não existe um framework estabelecido para isso. Spiros Xanthos, fundador e CEO da Resolve AI, destacou esta preocupação em um evento recente da VentureBeat AI Impact Series. “As estruturas de segurança tradicionais são projetadas para interações humanas. Não há, até o momento, um consenso sobre como tratar agentes de IA que operam de forma autônoma e têm suas próprias personas”, observou Jon Aniano, vice-presidente sênior de produto e aplicações de CRM na Zendesk.
O Protocolo de Contexto de Modelo (MCP) tem simplificado a integração entre agentes, ferramentas e dados, mas também gerado preocupações. “Os servidores MCP tendem a ser extremamente permissivos”, comentou Aniano, comparando-os desfavoravelmente com APIs, que possuem controles mais rigorosos. Isso complica ainda mais a gestão de segurança, já que os agentes podem atuar em nome de humanos com permissões explícitas, mas sem um controle claro.
À medida que startups como a Resolve AI desenvolvem agentes autônomos para engenharia de confiabilidade de sites e gestão de sistemas, a ausência de um framework específico para essas tecnologias torna-se evidente. “A responsabilidade de definir restrições para esses agentes recai inteiramente sobre aqueles que os criam”, disse Xanthos. A questão da responsabilidade torna-se ainda mais complexa em plataformas de CRM como a Zendesk, onde a IA está cada vez mais envolvida em interações com usuários. “Quem é responsável quando um erro ocorre?”, questiona Aniano.
A indústria está em busca de padrões concretos para interações entre agentes. Segundo Aniano, “com ferramentas como o MCP, que podem descobrir automaticamente novos recursos, será necessário criar novos métodos de segurança para decidir com quais ferramentas esses bots podem interagir”.
A autenticação é uma das áreas mais sensíveis quando se trata de IA. “O que acontece se um agente de IA autentica incorretamente um usuário?”, indaga Aniano, destacando o potencial risco de vazamento de dados sensíveis ou brechas de segurança.
No futuro, é possível que agentes de IA ganhem mais confiança do que humanos para executar certas tarefas, obtendo permissões além das concedidas aos humanos. “Ainda estamos longe disso, mas o medo de algo dar errado impede que as empresas avancem”, admite Xanthos.
Enquanto a indústria busca soluções, algumas medidas provisórias podem ser adotadas. Ferramentas como o Splunk já oferecem controles de acesso detalhados que podem ser aplicados a agentes. Aniano descreve a abordagem da Zendesk como um ponto de partida prático: chamadas de API projetadas de forma declarativa, ações explicitamente sancionadas e revisão humana antes de expandir as permissões dos agentes.
A rápida evolução dos agentes de IA impõe desafios significativos para a segurança, demandando novas abordagens e frameworks. Enquanto o setor busca soluções de longo prazo, as empresas devem adotar práticas provisórias para mitigar riscos, como controle de acesso detalhado e revisão humana. A pergunta que fica é: como equilibrar inovação e segurança em um cenário em constante movimento?
FCC bane roteadores estrangeiros; Netgear é a única exceção. Saiba por que o Wi-Fi 7…
FCC proíbe roteadores estrangeiros; Netgear, a exceção, desafia a regra.
OpenAI lança GPT 5.4-Cyber para testadores de cibersegurança, reforçando a defesa contra falhas.
Elementallis chega em 2026 com magia e aventura, por AnKae Games.
Hades II expande sua saga em Xbox, Game Pass e PS5. Descubra o que torna…
Frieren: Beyond Journey’s End emociona com narrativa única e sucesso no MyAnimeList.