Recentemente, tenho refletido sobre as limitações fundamentais da IA. É como o protagonista do filme "Amnésia": será que os atuais modelos de linguagem de grande escala (LLMs) também estão presos a uma espécie de amnésia progressiva?



Se os parâmetros permanecem fixos, o modelo realmente não consegue aprender de novas experiências. Ele tenta compensar usando o histórico de chat ou sistemas de busca, mas, no fim, isso é apenas confiar na memória externa. Ele não internaliza o conhecimento.

De acordo com a análise da a16z, o aprendizado no contexto (ICL) é apenas uma busca, não um verdadeiro aprendizado. Como falta compressão, ele não consegue fazer descobertas criativas ou lidar com cenários adversariais. Por exemplo, problemas que exigem uma abordagem totalmente nova, como a prova do último teorema de Fermat, o LLM só consegue combinar conhecimentos existentes.

As soluções propostas pelos pesquisadores envolvem três caminhos. O primeiro é o fortalecimento da camada de contexto, como em sistemas de múltiplos agentes. O segundo é a modularização, com módulos de conhecimento integrados à arquitetura existente, como adaptadores ou caches de KV comprimidos. O terceiro é a atualização de pesos, com treinamento durante a inferência ou meta-aprendizado, permitindo um aprendizado mais profundo a nível de parâmetros.

Porém, a atualização de pesos apresenta muitos desafios. Esquecimento catastrófico, desacoplamento temporal, deterioração do alinhamento de segurança. Atualizar o modelo após o deployment não é apenas uma questão técnica, envolve também questões de auditoria e privacidade.

No futuro, os sistemas serão hierárquicos. O ICL lidará com adaptações rápidas, os módulos oferecerão especialização, e a atualização de pesos permitirá uma internalização mais profunda. Para superar a amnésia progressiva, não basta expandir um arquivo de arquivo, é preciso compressão, abstração e mecanismos de aprendizado verdadeiro.

Este campo está recebendo muitas startups entrando, experimentando em camadas de gerenciamento de contexto, design de módulos e otimização de parâmetros. Ainda não há um vencedor claro, mas nos próximos anos, grandes mudanças certamente acontecerão.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Fixado