A Anthropic alterou sua política de segurança em IA para não interromper mais o desenvolvimento quando rivais lançarem modelos semelhantes ou superiores.
A Anthropic, conhecida pelo compromisso com a segurança da inteligência artificial, anunciou que vai flexibilizar sua política central de pausa no desenvolvimento de modelos que possam ser classificados como perigosos, caso concorrentes lancem alternativas comparáveis ou superiores. A alteração ocorre em meio a uma batalha com o Departamento de Defesa dos EUA, após a empresa limitar o uso de suas ferramentas Claude para vigilância doméstica ou operações letais. Segundo a Anthropic, a mudança é uma resposta à ausência de regulações federais claras sobre IA e não está relacionada às negociações com o Pentágono.
Fonte:Wall Street Journal – TNB Tech Minute
Data:25 de fevereiro de 2026









