Em uma audiência no norte da Califórnia, um advogado da Anthropic reconheceu ter utilizado uma citação incorreta gerada pelo Claude AI Chatbot durante um litígio em andamento com editores de música.
A citação, que incluía “um título e autores imprecisos”, foi identificada pela Anthropic em um documento apresentado ao tribunal. Os representantes da empresa afirmaram que o “controle de citação manual” da equipe não foi eficaz para detectar este e outros erros decorrentes das alucinações do modelo Claude.
A Anthropic emitiu um pedido de desculpas, caracterizando o incidente como um erro honesto de citação e esclarecendo que não houve intenção de manipulação de autorizações.
Recentemente, advogados do Universal Music Group e outros detentores de direitos autorais acusaram uma funcionária da Anthropic, Olivia Chen, de utilizar o Claude para inserir citações fictícias em seu testemunho. Em resposta, a juíza federal Susan Van Keulen demandou que a Anthropic se pronunciasse sobre as alegações apresentadas.
Este processo judicial reflete uma das numerosas controvérsias entre detentores de direitos autorais e empresas de tecnologia concernente ao uso indevido de suas obras para o desenvolvimento de ferramentas de inteligência artificial generativa.
O incidente ilustra um padrão crescente de erros envolvendo a utilização de IA em contextos legais. Em caso recente, um juiz na Califórnia penalizou escritórios de advocacia por apresentarem “pesquisas geradas de forma imprecisa” em tribunal. Além disso, um advogado australiano foi flagrado utilizando o ChatGPT para preparar documentos judiciais, resultando em citações defeituosas.
Entretanto, esses erros não desmotivam startups a buscar investimentos expressivos para automação de processos legais. A empresa Harvey, que emprega modelos generativos de IA para auxiliar advogados, está em negociações para obter mais de 250 milhões de dólares, visando uma avaliação de 5 bilhões de dólares.