O físico Max Tegmark sugere que as empresas de IA realizem avaliações de risco similares às que precederam os testes nucleares de 1945.

Tegmark defende que as organizações calculem a “constante de Compton”, uma métrica que quantifica a probabilidade de perder controle sobre uma ASI. Essa ideia é inspirada no trabalho de Arthur Compton, que autorizou o teste da bomba atômica após concluir que o risco de uma catástrofe era extremamente baixo.
Chamada à responsabilidade
- Conforme explicado por Tegmark, confiar apenas em sentimentos de segurança não é suficiente.
- “Não é suficiente afirmar ‘nos sentimos confortáveis com isso’. As empresas devem calcular a porcentagem de risco”, declarou o físico.
- Ele ressalta que cálculos transparentes podem promover um consenso político, propiciando a implementação de regulamentações globais para o desenvolvimento seguro da IA.
- Tegmark é cofundador do Future of Life Institute, que em 2023 lançou uma carta aberta com mais de 33.000 assinaturas, incluindo nomes como Elon Musk e Steve Wozniak, pedindo uma pausa na corrida por IA cada vez mais avançadas e incontroláveis.

Colaboração internacional
Recentemente, Tegmark e outros especialistas divulgaram o Consenso de Singapura, que estabelece diretrizes para priorizar a segurança em IA. Ele menciona que, após a cúpula de Paris, o debate tem se centrado na importância da colaboração internacional para garantir uma IA segura e controlável.
O relatório identifica três áreas fundamentais a serem priorizadas na pesquisa de segurança da IA: desenvolver métodos para medir o impacto dos sistemas de IA atuais e futuros; definir comportamentos esperados de uma IA e projetar sistemas para alcançá-los; e gerenciar e controlar o comportamento dos sistemas.
