No cenário das aplicações de IA, empresas frequentemente dependem de prompts longos e complexos para ajustar o comportamento dos modelos conforme suas necessidades específicas. Esses prompts carregam informações cruciais, como conhecimentos da empresa, preferências e instruções específicas para cada aplicação. Contudo, em larga escala, essa metodologia pode aumentar significativamente a latência de inferência e o custo por consulta.
É nesse contexto que surge o On-Policy Context Distillation (OPCD), um novo modelo de treinamento proposto por pesquisadores da Microsoft. A inovação do OPCD reside na incorporação direta do conhecimento e das preferências de uma aplicação no próprio modelo, utilizando as respostas geradas por ele durante o treinamento. Isso não só aprimora as capacidades do modelo para aplicações personalizadas, mas também preserva suas funcionalidades gerais.
A aprendizagem em contexto permite que desenvolvedores atualizem o comportamento de um modelo durante a inferência sem alterar seus parâmetros subjacentes. No entanto, esse conhecimento em contexto é temporário. Em aplicações empresariais, isso frequentemente significa inserir repetidamente políticas da empresa, tickets de clientes ou manuais técnicos densos, o que pode desacelerar o modelo e aumentar os custos.
Tradicionalmente, técnicas de destilação de contexto utilizam um paradigma de professor-aluno, onde o modelo aluno tenta imitar o modelo professor que recebe o prompt completo. No entanto, esse método apresenta problemas, como o “enviesamento de exposição”, onde o aluno não pratica a tomada de decisões próprias, levando a possíveis falhas na aplicação prática.
Além disso, o uso da minimização da divergência Kullback-Leibler direta pode levar a comportamentos amplos e imprecisos, resultando em “alucinações”, onde a IA inventa informações ao tentar imitar um conhecimento que não possui.
Com o OPCD, o modelo aluno aprende a partir de suas próprias trajetórias de geração, ao invés de um conjunto de dados fixo. O aluno recebe uma tarefa sem o prompt completo e deve gerar uma resposta por conta própria. Nesse processo, o professor atua como um instrutor ao vivo, avaliando o desempenho do aluno.
O OPCD utiliza a “divergência KL reversa” para avaliar o aluno, promovendo um comportamento de busca por modos, que ajuda o aluno a corrigir seus próprios erros e evitar distribuições amplas e alucinatórias comuns na destilação padrão.
Os pesquisadores testaram o OPCD em duas áreas principais: destilação de conhecimento experiencial e destilação de prompts de sistema. Os resultados mostraram melhorias significativas sem a necessidade de inserir experiências aprendidas nos prompts.
Embora o OPCD seja eficaz para internalizar conhecimento estático e regras complexas, ele não substitui todos os métodos de contexto externo. Para informações altamente dinâmicas ou que envolvem grandes bancos de dados atualizados com frequência, métodos como RAG são mais adequados.
O OPCD representa um avanço significativo na forma como modelos de IA podem ser treinados e aplicados. Ao permitir que modelos internalizem características do mundo real, o OPCD abre caminho para modelos verdadeiramente autoaperfeiçoáveis, que se adaptam continuamente aos ambientes empresariais sem a necessidade de supervisão manual constante.
Explore soluções para melhorar a comunidade de Marvel Rivals e promover um jogo mais justo.
Aprenda a otimizar o Calor em Marathon e melhore sua estratégia de jogo em Tau…
Aproveite as novidades de março na HBO Max Portugal com séries e filmes emocionantes.
Entenda as razões por trás do encerramento da Bluepoint Games e o impacto na indústria.
Power Book III: Raising Kanan Chega ao Fim com Quinta Temporada A Starz anunciou uma…
Netflix sai da disputa pela Warner Bros Discovery, abrindo caminho para a Paramount. Saiba mais…