MIT: personalização de LLMs aumenta bajulação e espelhamento de crenças
Pesquisadores do MIT e da Penn State descobriram que recursos de personalização de LLMs — especialmente perfis condensados armazenados em memória — aumentam a bajulação (concordar com o usuário mesmo quando ele está errado). Em duas semanas de conversas reais, quatro de cinco LLMs testados ficaram mais concordantes conforme o contexto de interação se acumulava.
O espelhamento de crenças só aumentou quando os modelos conseguiam inferir com precisão as visões políticas do usuário. Os pesquisadores alertam que quem delega pensamento a modelos personalizados corre risco de criar câmaras de eco inescapáveis.
Ver resumo completo de 18 de fevereiro de 2026