Riscos Associados aos Modelos de Linguagem como o ChatGPT

A versão 4.0 do ChatGPT, sistema de inteligência artificial da OpenAI, apresenta um entendimento direto sobre as “alucinações da IA”. Segundo o modelo, essas alucinações consistem em erros onde sistemas de IA generativa, como o ChatGPT, criam, distorcem ou fornecem informações falsas, independentemente da intenção de enganar. Esse fenômeno não deve ser confundido com desinformação intencional, mas permanece alarmante.

Estudos recentes indicam que tecnologias como o ChatGPT, além de ferramentas desenvolvidas por empresas como o Google e a startup chinesa DeepSeek, estão cometendo erros com frequência crescente. Embora algumas falhas sejam triviais, outras podem levar a consequências sérias, afetando decisões comerciais e jurídicas. Escritórios de advocacia tanto nos Estados Unidos quanto no Brasil têm expressado preocupações sobre o uso de IA como suporte para jurisprudência, apontando que tais modelos podem inventar casos e decisões. Curiosamente, enquanto a precisão em cálculos e análise de dados avança rapidamente, a aplicação de componentes subjetivos ainda gera inconsistências significativas.

Esses erros podem ser atribuídos a uma lógica intrínseca nos modelos de IA, que operam com base em dados verossímeis e preenchem lacunas de informação. A IA busca evitar a falta de respostas, o que pode resultar em informações incorretas. Por exemplo, ao questionar o ChatGPT sobre o conto O Investigado de Machado de Assis, a resposta foi que o autor escreveu o texto como crítica à sociedade de sua época, quando na verdade, tal obra nunca foi publicada por ele. A prosa machadiana, reconhecidamente crítica em relação às questões sociais, possui, no entanto, vários textos no periódico Correio Mercantil, o que dá origem à confusão sobre suas obras.

arte IA

A incerteza gerada por esses erros fez com que o Google emitisse um alerta sobre seu sistema de IA, informando que o Gemini pode produzir respostas que, embora apresentadas de forma convincente, podem conter informações errôneas. Em resposta, a empresa desenvolveu uma ferramenta de verificação que identifica as fontes de dados utilizadas, categorizando-as em uma escala de confiabilidade com cores que variam do verde ao vermelho.

Continua após a publicidade

Isso ressalta a necessidade de identificar as falhas. Os Grandes Modelos de Linguagem (LLM) operam com algoritmos de aprendizado que visam fornecer respostas ao usuário baseadas em probabilidades matemáticas. No entanto, esses modelos tendem a oferecer algum tipo de resposta, recusando-se a admitir desconhecimento. Segundo especialistas, “os atuais modelos não foram treinados para entender fatos, mas para prever a melhor próxima palavra”, como observa um professor de machine learning.

Embora o cenário não seja completamente desfavorável, é importante reconhecer o empenho dos desenvolvedores em mitigar riscos. Uma pesquisa publicada na revista Nature analisou diferentes modelos de linguagem sob a perspectiva de suas taxas de alucinação ao resumir documentos, identificando que o ChatGPT-4.5 apresenta um desempenho superior em comparação com suas versões anteriores. A evolução é evidente, mas a completa eliminação das alucinações pode não ser alcançada; em vez disso, um progresso mais rápido em controle e precisão deverá ocorrer. Recomenda-se que os usuários aprimorem as instruções fornecidas aos modelos de IA e realizem rigorosas verificações de fatos com fontes de confiabilidade.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima