Os agentes de inteligência artificial (IA) estão se tornando cada vez mais integrados aos sistemas empresariais, ultrapassando outras formas de software em termos de acesso e conexões. Isso representa um novo e amplo vetor de ataque que as equipes de segurança precisam gerenciar, mas ainda não existe um framework estabelecido para isso. Spiros Xanthos, fundador e CEO da Resolve AI, destacou esta preocupação em um evento recente da VentureBeat AI Impact Series. “As estruturas de segurança tradicionais são projetadas para interações humanas. Não há, até o momento, um consenso sobre como tratar agentes de IA que operam de forma autônoma e têm suas próprias personas”, observou Jon Aniano, vice-presidente sênior de produto e aplicações de CRM na Zendesk.
O Protocolo de Contexto de Modelo (MCP) tem simplificado a integração entre agentes, ferramentas e dados, mas também gerado preocupações. “Os servidores MCP tendem a ser extremamente permissivos”, comentou Aniano, comparando-os desfavoravelmente com APIs, que possuem controles mais rigorosos. Isso complica ainda mais a gestão de segurança, já que os agentes podem atuar em nome de humanos com permissões explícitas, mas sem um controle claro.
À medida que startups como a Resolve AI desenvolvem agentes autônomos para engenharia de confiabilidade de sites e gestão de sistemas, a ausência de um framework específico para essas tecnologias torna-se evidente. “A responsabilidade de definir restrições para esses agentes recai inteiramente sobre aqueles que os criam”, disse Xanthos. A questão da responsabilidade torna-se ainda mais complexa em plataformas de CRM como a Zendesk, onde a IA está cada vez mais envolvida em interações com usuários. “Quem é responsável quando um erro ocorre?”, questiona Aniano.
A indústria está em busca de padrões concretos para interações entre agentes. Segundo Aniano, “com ferramentas como o MCP, que podem descobrir automaticamente novos recursos, será necessário criar novos métodos de segurança para decidir com quais ferramentas esses bots podem interagir”.
A autenticação é uma das áreas mais sensíveis quando se trata de IA. “O que acontece se um agente de IA autentica incorretamente um usuário?”, indaga Aniano, destacando o potencial risco de vazamento de dados sensíveis ou brechas de segurança.
No futuro, é possível que agentes de IA ganhem mais confiança do que humanos para executar certas tarefas, obtendo permissões além das concedidas aos humanos. “Ainda estamos longe disso, mas o medo de algo dar errado impede que as empresas avancem”, admite Xanthos.
Enquanto a indústria busca soluções, algumas medidas provisórias podem ser adotadas. Ferramentas como o Splunk já oferecem controles de acesso detalhados que podem ser aplicados a agentes. Aniano descreve a abordagem da Zendesk como um ponto de partida prático: chamadas de API projetadas de forma declarativa, ações explicitamente sancionadas e revisão humana antes de expandir as permissões dos agentes.
A rápida evolução dos agentes de IA impõe desafios significativos para a segurança, demandando novas abordagens e frameworks. Enquanto o setor busca soluções de longo prazo, as empresas devem adotar práticas provisórias para mitigar riscos, como controle de acesso detalhado e revisão humana. A pergunta que fica é: como equilibrar inovação e segurança em um cenário em constante movimento?
Marty Supreme: um fenômeno nas bilheterias com Chalamet. Assista e forme sua opinião agora!
Explore as complexidades familiares e traumas em Valor Sentimental, disponível no Mubi. Assista agora!
Veja as novas imagens de Lee Jin Woo e Choi Gyu Ri no drama 'Cabbage…
Explore o final impactante de 'Positively Yours', onde redenção e romance se entrelaçam em um…
Zootopia 2 estreia no Disney+ em 11 de março. Prepare-se para novas aventuras com Judy…
Explore Pokémon FireRed & LeafGreen no Switch e aprenda a capturar Lendários com dicas essenciais.