Anthropic abandona promessa de segurança e diz que não vai parar se concorrentes 'avançarem a todo vapor'
A Anthropic abandonou o compromisso central de sua Política de Escalonamento Responsável: a promessa de 2023 de nunca treinar um sistema de IA sem garantir medidas de segurança adequadas. O diretor científico Jared Kaplan disse à TIME que "não ajudaria ninguém se parássemos de treinar modelos" dado o ritmo dos concorrentes.
A política revisada compromete a empresa a igualar ou superar os esforços de segurança dos rivais e a atrasar o desenvolvimento apenas se liderar a corrida e considerar significativos os riscos de catástrofe. A mudança deixa a Anthropic menos limitada por suas próprias regras justo quando alcançou ou superou a OpenAI em capacidades.
Ver resumo completo de 25 de fevereiro de 2026