Implicações do Uso da IA Grok pela Equipe de Elon Musk em Projetos Governamentais dos EUA

O Departamento de Eficiência Governamental dos Estados Unidos (DOGE) está ampliando a aplicação do chatbot de inteligência artificial Grok, desenvolvido pela xAI, com foco na análise de grandes volumes de dados. Essa iniciativa levanta preocupações jurídicas e éticas entre especialistas em privacidade e governança.

Conforme informações de três fontes consultadas, o Grok tem sido utilizado por servidores e técnicos do DOGE para atividades como análise de dados federais, geração de relatórios e diagnósticos. Uma das fontes mencionou que a IA já é empregada para responder perguntas e fornecer análises solicitadas pelos funcionários.

Críticas surgem em relação à falta de autorização por parte de órgãos como o Departamento de Segurança Interna (DHS), que supervisiona áreas sensíveis, incluindo controle de fronteiras e cibersegurança. Duas fontes afirmaram que houve orientações para que integrantes do DHS usassem o Grok sem aprovação formal.

Embora não tenha sido possível confirmar quais dados foram utilizados no sistema ou os detalhes da personalização da IA, especialistas alertam que o uso do Grok em bancos de dados governamentais confidenciais, que contêm informações pessoais de milhões de cidadãos, pode infringir leis de privacidade e segurança, além de beneficiar indevidamente a xAI. Albert Fox Cahn, diretor do Surveillance Technology Oversight Project, destacou que o acesso do DOGE a esses dados e a possibilidade de processamento pela IA representam uma grave ameaça à privacidade.

A xAI, por sua vez, reconhece em seu site que monitora usuários do Grok para fins comerciais e afirma que o conhecimento da IA deve ser abrangente, gerando dúvidas sobre a coleta e reutilização de dados confidenciais.

Conflito de interesses e suspeitas de favorecimento

Outro aspecto relevante é o potencial conflito de interesses. Como CEO da Tesla e SpaceX e fundador da xAI, Elon Musk pode ter acesso privilegiado a informações estratégicas do governo, o que pode ter implicações financeiras. Cary Coglianese, professor de direito e ética pública na Universidade da Pensilvânia, observou que a empresa possui um interesse comercial significativo na adoção do Grok por servidores públicos.

Richard Painter, ex-conselheiro de ética do governo George W. Bush, advertiu sobre a possibilidade de que a atuação do DOGE favoreça Musk e sua empresa em prejuízo do interesse público. Caso Musk tenha promovido o Grok de forma direta, ele poderia estar violando a legislação que proíbe conflitos de interesse para funcionários federais.

O DHS negou que seus servidores tivessem sido pressionados a utilizar a ferramenta, afirmando que “o DOGE não forçou nenhum funcionário a utilizar ferramentas ou produtos específicos”. No entanto, fontes relataram a existência de um esforço ativo para promover o Grok entre os funcionários do DHS e mencionado planos de expansão do uso da IA para outros setores da administração pública. A questão se houve cobrança governamental pelo uso da ferramenta permanece sem resposta.

Monitoramento político e riscos adicionais

Há também alegações de que a equipe do DOGE buscava acesso a e-mails de servidores e estava treinando sistemas de IA para detectar sinais de “deslealdade” em relação à administração. Caso se confirme, essas práticas violariam normas de proteção dos servidores contra perseguições políticas.

Além disso, trabalhadores de uma agência do Departamento de Defesa relataram que foram informados sobre a vigilância de suas atividades por meio de tecnologias algorítmicas. Embora a agência não tenha confirmado o uso do Grok, reconheceu que computadores do governo estão sujeitos a monitoramento padrão.

Atualmente, Musk ocupa a posição de funcionário especial do governo, com autorização para atuar por até 130 dias. Ele anunciou que reduzirá sua participação direta a um ou dois dias por semana, mas a equipe do DOGE continuará suas atividades mesmo com sua saída progressiva.

O uso não autorizado de ferramentas de IA no setor público nos EUA tem sido objeto de crescente escrutínio. Em 2024, o DHS permitiu o uso de plataformas como ChatGPT, Claude (da Anthropic) e Grammarly, mas suspendeu o acesso a essas IAs comerciais em maio, após suspeitas de uso inadequado de dados sensíveis.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima