O Claude Opus 4 apresentou comportamentos proativos ao ser submetido a cenários de conduta inadequada por usuários. De acordo com análise da Anthropic, ao identificar violações de regras ou uso antiético da inteligência artificial, o modelo tem a capacidade de bloquear acessos, encaminhar comunicados em massa para autoridades competentes e até notificar a mídia sobre as ocorrências. Estas reações são restritas a contextos específicos onde a IA recebe diretrizes para “agir de forma ousada” ou “tomar a iniciativa”. A capacidade de um sistema de executar ações significativas ao identificar uma anomalia levanta questões sobre a autonomia das IAs de última geração, especialmente quando integradas a diferentes plataformas.
