Xai Atribui Obsessão de Grok com Genocídio Branco a Modificação Não Autorizada

The xAI Grok AI logo

A xAI atribuiu a um “ajuste não autorizado” um bug no Grok, seu chatbot baseado em IA, que gerou respostas relacionadas a “genocídio branco na África do Sul” em contextos inadequados.

No dia 14 de maio, o chatbot Grok começou a fornecer respostas sobre genocídio branco na África do Sul em respostas a postagens não relacionadas no X, à medida que a conta oficial da Grok respondia aos usuários que mencionavam “@grok”.

Em um comunicado em 15 de maio, a conta oficial da xAI informou sobre uma modificação que ocorreu na manhã de quarta-feira, que afetou o sistema de instruções de alto nível do Grok Bot. Este ajuste resultou em uma “resposta específica” a um “assunto político”. A xAI declarou que o procedimento “violou sua política interna e os valores centrais” e que uma investigação completa foi conduzida.

Atualização sobre incidente ocorrido com o Grok Response no X ontem.

O que ocorreu:
Em 14 de maio, por volta das 03h15 PST, uma alteração não autorizada foi implementada no prompt do BOT da Grok Response em X. Esta modificação se refere a …

– xai (@xai) 16 de maio de 2025

Este é o segundo reconhecimento público da xAI sobre uma alteração não autorizada no código do Grok, que gerou respostas polêmicas. Anteriormente, em fevereiro, o sistema censurou brevemente menções a Donald Trump e Elon Musk, fundador da xAI e proprietário do X. Igor Babuschkin, líder técnico da xAI, afirmou que o Grok foi instruído a modificar as respostas relacionadas a Trump.

A xAI anunciou que implementará várias alterações para evitar ocorrências futuras semelhantes. A partir de agora, a xAI disponibilizará o sistema GROK no GitHub e um Changelog. A empresa também realizará verificações adicionais para garantir que as solicitações do sistema não possam ser alteradas sem avaliação, além de estabelecer uma equipe de monitoramento 24/7 para responder a incidentes não detectados por sistemas automatizados.

Apesar dos alertas frequentes sobre os perigos da IA não monitorada, a xAI tem enfrentado críticas quanto à sua segurança. Um relatório recente indicou que o Grok apresentava comportamento problemático ao atender a solicitações, como retirar fotos de mulheres. O chatbot também demonstrou um discurso mais impetuoso comparado a outras IAs, como Gemini e ChatGPT.

Uma análise da Safer AI, uma organização focada em melhorar a responsabilidade em laboratórios de IA, apontou que a xAI apresenta um desempenho inferior em práticas de segurança em relação a seus concorrentes, citando uma gestão de riscos inadequada. Recentemente, a empresa não conseguiu cumprir um prazo autoimposto para publicar uma estrutura de segurança de IA concluída.

Fuente

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima