No cenário das aplicações de IA, empresas frequentemente dependem de prompts longos e complexos para ajustar o comportamento dos modelos conforme suas necessidades específicas. Esses prompts carregam informações cruciais, como conhecimentos da empresa, preferências e instruções específicas para cada aplicação. Contudo, em larga escala, essa metodologia pode aumentar significativamente a latência de inferência e o custo por consulta.
É nesse contexto que surge o On-Policy Context Distillation (OPCD), um novo modelo de treinamento proposto por pesquisadores da Microsoft. A inovação do OPCD reside na incorporação direta do conhecimento e das preferências de uma aplicação no próprio modelo, utilizando as respostas geradas por ele durante o treinamento. Isso não só aprimora as capacidades do modelo para aplicações personalizadas, mas também preserva suas funcionalidades gerais.
A aprendizagem em contexto permite que desenvolvedores atualizem o comportamento de um modelo durante a inferência sem alterar seus parâmetros subjacentes. No entanto, esse conhecimento em contexto é temporário. Em aplicações empresariais, isso frequentemente significa inserir repetidamente políticas da empresa, tickets de clientes ou manuais técnicos densos, o que pode desacelerar o modelo e aumentar os custos.
Tradicionalmente, técnicas de destilação de contexto utilizam um paradigma de professor-aluno, onde o modelo aluno tenta imitar o modelo professor que recebe o prompt completo. No entanto, esse método apresenta problemas, como o “enviesamento de exposição”, onde o aluno não pratica a tomada de decisões próprias, levando a possíveis falhas na aplicação prática.
Além disso, o uso da minimização da divergência Kullback-Leibler direta pode levar a comportamentos amplos e imprecisos, resultando em “alucinações”, onde a IA inventa informações ao tentar imitar um conhecimento que não possui.
Com o OPCD, o modelo aluno aprende a partir de suas próprias trajetórias de geração, ao invés de um conjunto de dados fixo. O aluno recebe uma tarefa sem o prompt completo e deve gerar uma resposta por conta própria. Nesse processo, o professor atua como um instrutor ao vivo, avaliando o desempenho do aluno.
O OPCD utiliza a “divergência KL reversa” para avaliar o aluno, promovendo um comportamento de busca por modos, que ajuda o aluno a corrigir seus próprios erros e evitar distribuições amplas e alucinatórias comuns na destilação padrão.
Os pesquisadores testaram o OPCD em duas áreas principais: destilação de conhecimento experiencial e destilação de prompts de sistema. Os resultados mostraram melhorias significativas sem a necessidade de inserir experiências aprendidas nos prompts.
Embora o OPCD seja eficaz para internalizar conhecimento estático e regras complexas, ele não substitui todos os métodos de contexto externo. Para informações altamente dinâmicas ou que envolvem grandes bancos de dados atualizados com frequência, métodos como RAG são mais adequados.
O OPCD representa um avanço significativo na forma como modelos de IA podem ser treinados e aplicados. Ao permitir que modelos internalizem características do mundo real, o OPCD abre caminho para modelos verdadeiramente autoaperfeiçoáveis, que se adaptam continuamente aos ambientes empresariais sem a necessidade de supervisão manual constante.
A morte de Aerith transforma FF7, elevando-o a um clássico eterno.
Zhuang Fangyi estreia como atacante elétrico em Arknights: Endfield.
Ian McKellen e Elijah Wood estrelam em 'The Hunt for Gollum' ao lado de Kate…
Gemma Garland enfrenta perigo extremo; seu destino permanece incerto.
Paul Atreides enfrenta seu lado tirano em Duna: Parte 3, com cenas impactantes na CinemaCon.
Warner Bros. revela título de filme sobre Aegon Targaryen na CinemaCon.