Na manhã desta terça-feira, surgiram informações de que o Google assinou um acordo com o Departamento de Defesa dos Estados Unidos para utilização de seus modelos de inteligência artificial em trabalhos confidenciais. Tal decisão gerou controvérsia, especialmente após uma carta aberta assinada por centenas de funcionários da empresa. Eles alertam que o uso militar da IA pode se tornar perigoso e difícil de ser supervisionado, solicitando que a empresa se mantenha afastada de tais aplicações.
Detalhes do Acordo com o Pentágono
O acordo, divulgado pelo portal The Information, concede ao Pentágono o direito de usar as ferramentas de IA do Google para “qualquer propósito governamental legal”, incluindo aplicações militares sensíveis. Com isso, o Google se une a outras empresas como OpenAI e xAI, que já possuem acordos semelhantes com o governo norte-americano para uso de IA em trabalhos classificados.
Cláusulas e Restrições do Acordo
Embora o acordo inclua cláusulas que proíbem o uso da IA do Google para vigilância em massa doméstica ou armamentos autônomos sem supervisão humana adequada, ele também estipula que o Google não possui o direito de controlar ou vetar decisões operacionais legais do governo. Além disso, a empresa também se compromete a ajudar na adaptação de configurações de segurança e filtros, conforme solicitado pelo governo.
- A IA do Google não será usada para vigilância em massa interna.
- Google não poderá vetar decisões operacionais do governo.
- Empresa auxiliará na configuração de segurança da IA.
Preocupações dos Funcionários
Os funcionários do Google expressaram preocupações em sua carta, destacando o risco de a IA ser usada de maneira desumana ou extremamente prejudicial. Eles mencionaram especificamente armas autônomas letais e vigilância em massa, mas enfatizaram que o trabalho classificado pode ocorrer sem o conhecimento ou a capacidade dos funcionários de interferir.
Mudanças na Postura do Google
A posição do Google em relação ao uso militar e segurança nacional da IA tem evoluído. Em uma postagem de blog de fevereiro, Demis Hassabis, CEO do Google DeepMind, e James Manyika, vice-presidente sênior, destacaram que “as democracias devem liderar o desenvolvimento da IA” e que empresas e governos devem colaborar para criar IA que “proteja as pessoas, promova o crescimento global e apoie a segurança nacional”.
Conclusão
Este acordo entre o Google e o Departamento de Defesa dos EUA levanta questões significativas sobre o papel das grandes empresas de tecnologia no desenvolvimento e aplicação de inteligência artificial em contextos sensíveis. Enquanto alguns veem a colaboração como um avanço na proteção e segurança nacional, outros, inclusive dentro do próprio Google, temem as implicações éticas e de supervisão dessas tecnologias poderosas. A discussão sobre o equilíbrio entre inovação, segurança e ética continua a ser vital à medida que a IA se torna cada vez mais integrada em operações governamentais.