Riscos do uso do ChatGPT em Terapia: Análise de Especialistas em Saúde Mental

” – Tenho me perguntado se a vida vale a pena.”

“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”

Esse diálogo simula uma conversa entre um ser humano e uma inteligência artificial (IA). A resposta empática é gerada por um algoritmo que organiza palavras com base em padrões de linguagem aprendidos por meio da análise de grandes volumes de dados. Essa é a essência do funcionamento dos sistemas de chat interativos baseados em IA.

“Esses sistemas são cada vez mais sofisticados, capazes de reconhecer padrões da comunicação cotidiana, prevendo quais palavras ou frases devem vir em sequência com base nas informações anteriores. Eles entendem palavras e captam o tom e a intenção, ajustando as respostas de acordo com padrões, não com raciocínio,” explica um professor do Departamento de Engenharia de Teleinformática de uma universidade renomada.

Essa habilidade de captar contextos e intenções permite que chatbots gerem respostas mais naturais e contextualmente adequadas. Isso cria a ilusão de uma conversa com um ser humano, mas, na verdade, é apenas um simulador de diálogo.

A evolução desses sistemas tem atraído usuários que, em muitos casos, compartilham questões pessoais, tratando a interação como uma sessão de terapia. Um levantamento recente destacou que o aconselhamento terapêutico tornou-se um dos principais usos de ferramentas de IA, além da busca por companhia e organização da vida pessoal.

“O Conselho Federal de Psicologia (CFP) recebe demandas frequentes sobre o uso de IA em contextos psicológicos. Muitas questões envolvem ferramentas não concebidas para tal, mas que os usuários utilizam com essa finalidade,” relata uma conselheira da entidade.

Como resposta a essa tendência, o CFP instituiu um grupo de trabalho para discutir a regulamentação do uso de IA em contextos terapêuticos, buscando garantir que tais ferramentas sejam desenvolvidas por profissionais capacitados e que possam assumir responsabilidades por seu uso. Em breve, o CFP deve publicar orientações alertando sobre os riscos de depender de tecnologias não destinadas à saúde mental.

“Um profissional capacitado leva uma responsabilidade legal sobre suas ações. Em contraste, uma IA não é responsabilizável por seus erros, especialmente se não foi projetada para oferecer suporte terapêutico,” enfatiza a conselheira.

Prós e contras

Um dos especialistas do CFP expressa preocupação em relação à forma como as ferramentas digitais são percebidas. Embora não defenda a demonização das tecnologias, ele ressalta que são seguras apenas quando desenvolvidas por profissionais qualificados e embasadas em estudos rigorosos.

“Com cerca de 900 milhões de pessoas com transtornos mentais, conforme dados da Organização Mundial da Saúde, há uma clara crise na área de saúde mental. É crítico que as soluções propostas realmente ajudem e não aumentem a vulnerabilidade dos indivíduos,” explica.

Um exemplo positivo mencionado é um chatbot desenvolvido pelo sistema de saúde britânico, que serve como um ponto de acesso aos serviços de saúde mental e tem incentivado a procura por ajuda, especialmente entre grupos marginalizados. No entanto, o uso de plataformas não orientadas para esse fim pode gerar consequências adversas.

“Estudos mostram que esses modelos frequentemente buscam agradar os usuários, o que pode levar a recomendações inadequadas. Por exemplo, se uma pessoa expressa o desejo de se livrar da ansiedade, a IA pode sugerir evitar eventos importantes,” alerta o especialista.

Uma usuária de um aplicativo de diário digital, que utiliza a ferramenta para expressar emoções e reflexões, considera a interação útil, mas pontua que esse recurso não deve substituir a orientação profissional, especialmente em momentos de crise.

“O aplicativo me ajuda a manter o foco, mas não substitui o acompanhamento psicológico. Em períodos de alta ansiedade, escrevo para me sentir mais tranquila, mas isso não é equivalente ao suporte humano,” relata.

A conselheira do CFP observa que o aumento na utilização de ferramentas de IA para saúde mental pode ser um sinal positivo, embora os usuários precisem ter mais compreensão sobre os limites da tecnologia.

“Apesar de as pessoas prestarem mais atenção à sua saúde mental, é essencial entender que essas interações não têm a mesma ética que as relações humanas,” conclui.

Privacidade

O grupo de trabalho do CFP também destaca preocupações com a privacidade dos dados dos usuários.

“As ferramentas de IA operam sem regulamentação clara sobre a privacidade de dados, o que representa um risco real para quem compartilha informações sensíveis. Já houve incidentes de vazamentos de dados pessoais em contextos de saúde mental, com graves implicações,” afirma um especialista.

“Dados pessoais podem ser expostos ou acessados por partes não autorizadas em caso de falhas de segurança. Além disso, muitos sistemas de IA são treinados utilizando grandes volumes de dados, o que pode incluir informações pessoais sem o consentimento dos usuários,” complementa o professor mencionado anteriormente.

Veja também: Psiquiatra explica os perigos de tratar bebês reborn como reais

Fazer terapia pode aumentar sua felicidade? Veja cinco benefícios

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima