Testes de Segurança em IA Superinteligente: Comparativo com Protocolos Nucleares

O físico Max Tegmark sugere que as empresas de IA realizem avaliações de risco similares às que precederam os testes nucleares de 1945.

TESTE-IA-1920x1080
Imagem: KT Stock photos/Shutterstock
Max Tegmark, físico associado ao MIT e especialista em segurança de inteligência artificial, propõe que as empresas do setor realizem avaliações rigorosas de risco antes do lançamento de sistemas de superinteligência artificial (ASI). Essa abordagem é análoga às avaliações feitas antes do teste nuclear de 1945, conduzido por Robert Oppenheimer.

Tegmark defende que as organizações calculem a “constante de Compton”, uma métrica que quantifica a probabilidade de perder controle sobre uma ASI. Essa ideia é inspirada no trabalho de Arthur Compton, que autorizou o teste da bomba atômica após concluir que o risco de uma catástrofe era extremamente baixo.

Chamada à responsabilidade

  • Conforme explicado por Tegmark, confiar apenas em sentimentos de segurança não é suficiente.
  • “Não é suficiente afirmar ‘nos sentimos confortáveis com isso’. As empresas devem calcular a porcentagem de risco”, declarou o físico.
  • Ele ressalta que cálculos transparentes podem promover um consenso político, propiciando a implementação de regulamentações globais para o desenvolvimento seguro da IA.
  • Tegmark é cofundador do Future of Life Institute, que em 2023 lançou uma carta aberta com mais de 33.000 assinaturas, incluindo nomes como Elon Musk e Steve Wozniak, pedindo uma pausa na corrida por IA cada vez mais avançadas e incontroláveis.
inteligencia artificial
Especialistas recomendam que gigantes da IA quantifiquem o risco de autonomia incontrolável antes de lançarem sistemas avançados – Imagem: Anggalih Prasetya/Shutterstock

Colaboração internacional

Recentemente, Tegmark e outros especialistas divulgaram o Consenso de Singapura, que estabelece diretrizes para priorizar a segurança em IA. Ele menciona que, após a cúpula de Paris, o debate tem se centrado na importância da colaboração internacional para garantir uma IA segura e controlável.

O relatório identifica três áreas fundamentais a serem priorizadas na pesquisa de segurança da IA: desenvolver métodos para medir o impacto dos sistemas de IA atuais e futuros; definir comportamentos esperados de uma IA e projetar sistemas para alcançá-los; e gerenciar e controlar o comportamento dos sistemas.

Sistemas superinteligentes de IA devem passar por medidas concretas de segurança (Imagem: Lemon_tm/iStock)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima