O Futuro da Engenharia de Contexto em Modelos de IA

Acelino Silva

O Futuro da Engenharia de Contexto em Modelos de IA

À medida que os modelos de inteligência artificial evoluem, a maneira como os controlamos também precisa se adaptar. Harrison Chase, cofundador e CEO da LangChain, compartilhou suas ideias sobre essa evolução em um episódio do podcast VentureBeat Beyond the Pilot. Ele explicou que a “engenharia de arnês” é uma extensão da engenharia de contexto, permitindo que agentes de IA operem de forma mais independente e realizem tarefas de longo prazo com eficácia.

O Impacto da Aquisição da OpenClaw pela OpenAI

Chase também falou sobre a aquisição da OpenClaw pela OpenAI, destacando seu sucesso viral devido à disposição de “deixar fluir” de maneiras que nenhum grande laboratório faria. Ele questionou se essa aquisição realmente aproxima a OpenAI de uma versão segura e empresarial do produto. “A tendência nos arneses é dar ao modelo de linguagem grande (LLM) mais controle sobre a engenharia de contexto, permitindo que ele decida o que vê e o que não vê”, afirmou Chase. “Agora, essa ideia de um assistente mais autônomo e de longa duração é viável.”

Progresso Contínuo e Coerência

Embora a ideia de permitir que LLMs operem em loop e chamem ferramentas pareça simples, é um desafio implementá-la de forma confiável, conforme apontou Chase. Durante um período, os modelos estavam “abaixo do limiar de utilidade” e não conseguiam operar em loop, levando desenvolvedores a usarem gráficos e escreverem cadeias como soluções alternativas. Chase citou o AutoGPT como um exemplo: apesar de sua arquitetura promissora, os modelos não eram suficientemente robustos para operar em loop de forma confiável, resultando em seu rápido declínio.

Desenvolvendo Agentes Profundos com a LangChain

A resposta da LangChain para esses desafios é o Deep Agents, um arnês de uso geral personalizável. Construído sobre LangChain e LangGraph, ele possui capacidades de planejamento, um sistema de arquivos virtual, gerenciamento de contexto e tokens, execução de código, além de funções de habilidades e memória. Além disso, ele pode delegar tarefas a subagentes especializados com diferentes ferramentas e configurações, trabalhando em paralelo.

O contexto é isolado, o que significa que o trabalho dos subagentes não sobrecarrega o contexto do agente principal, e o contexto de subtarefas é comprimido em um único resultado para eficiência no uso de tokens. Todos esses agentes têm acesso a sistemas de arquivos e podem essencialmente criar listas de tarefas que podem executar e acompanhar ao longo do tempo.

Garantindo Coerência e Flexibilidade

Chase ressaltou que os arneses devem ser projetados para que os modelos mantenham a coerência em tarefas longas e sejam “amenáveis” a decidir quando compactar o contexto em momentos considerados “vantajosos”. Além disso, dar acesso a intérpretes de código e ferramentas BASH aos agentes aumenta a flexibilidade. Prover habilidades, em vez de apenas ferramentas, permite que carreguem informações conforme necessário.

“Em vez de codificar tudo em um grande prompt do sistema,” explicou Chase, “você poderia ter um prompt menor, ‘Esta é a base central, mas se eu precisar fazer X, deixe-me ler a habilidade para X. Se eu precisar fazer Y, deixe-me ler a habilidade para Y.'”

Engenharia de Contexto: dos Agentes de IA

Chase descreveu a engenharia de contexto como um meio sofisticado de determinar o que o LLM está vendo, que é diferente do que os desenvolvedores humanos veem. Quando desenvolvedores analisam traços de agentes, podem se colocar na “mentalidade” da IA e responder a perguntas como: Qual é o prompt do sistema? Como ele é criado? É estático ou é populado? Que ferramentas o agente possui? Como as chamadas de ferramentas são apresentadas?

“Quando os agentes falham, é porque não têm o contexto certo; quando têm sucesso, é porque têm o contexto certo”, afirmou Chase. “Penso na engenharia de contexto como trazer a informação certa no formato certo para o LLM no momento certo.”

Conclusão

Este podcast oferece uma visão aprofundada sobre como a LangChain está construindo sua pilha tecnológica com o LangGraph como pilar central, LangChain no centro e Deep Agents no topo. Também discute como as sandboxes de código serão a próxima grande inovação e como um tipo diferente de UX evoluirá à medida que agentes operam em intervalos mais longos ou continuamente. A importância de traços e observabilidade para construir um agente que realmente funcione também é abordada. Para ouvir mais sobre esses tópicos, inscreva-se no Beyond the Pilot no Spotify, Apple ou onde quer que você obtenha seus podcasts.

Do listening am eagerness oh objection collected solicitude so decisively unpleasing conviction is partiality he.

Share This Article
Follow:
Sou um amante de séries, filmes, games, doramas, k-pop, animes e tudo relacionado a cultura pop, nerd e geek.