Saúde

É seguro usar ChatGPT para terapia? Veja o que especialistas dizem

Chatbots de inteligência artificial (IA) — como o ChatGPT, da OpenAI — têm sido utilizados, recentemente, para fazer terapia. Apelidado de “Terapeuta GPT“, o programa não aconselha os usuários a substituir um terapeuta real pela ferramenta. Ainda assim, muitos usuários de redes sociais estão recorrendo a chatbots para se consultar.

Mya Dunham, 24 anos, tem recorrido ao aplicativo ChatGPT nos últimos dois meses quando precisa de conselhos. Cerca de duas vezes por semana, Dunham escreve seus sentimentos e os envia ao bot para análise e feedback.

“Meu objetivo é aprender uma nova perspectiva, ter um ponto de vista diferente, porque o que penso na minha cabeça será baseado em meus próprios sentimentos”, diz Dunham.

 

 

Dunham usou o chatbot pela primeira vez em outubro após ver alguém postar sobre uma experiência positiva nas redes sociais. “Minha frase de abertura foi: ‘Honestamente, só preciso de alguém para conversar, posso falar com você?’ E o bot respondeu: ‘Absolutamente’. E foi muito mais acolhedor e convidativo do que eu esperava”, conta.

Quando Dunham postou sobre sua experiência no TikTok, os comentários ficaram divididos sobre o uso de chatbots dessa maneira. Alguns disseram que também recorrem a ele para fins terapêuticos, enquanto outros expressaram dúvidas sobre se sentiriam confortáveis conversando com um robô.

Especialistas em saúde mental afirmam que essa tecnologia em desenvolvimento pode ser benéfica em certas situações, mas também há riscos a serem considerados.

Usando chatbots de IA como terapeutas

Dunham, que é de Atlanta, já tentou terapia com humanos algumas vezes, mas conta que prefere o chatbot por sua falta de expressões faciais. O bot não parece julgá-la, em sua percepção.

“Alguns usuários, algumas populações, podem estar mais propensos a se abrir ou se revelar mais quando conversam com um chatbot de IA, em comparação com um ser humano, (e) há algumas pesquisas que apoiam sua eficácia em ajudar algumas populações com ansiedade leve e depressão leve”, afirma Russell Fulmer, presidente da Força-Tarefa sobre IA da American Counseling Association e professor e diretor de programas de aconselhamento de pós-graduação na Universidade Husson em Bangor, Maine.

“Por outro lado, há algumas preocupações éticas e coisas com as quais precisamos ter cuidado”, observou ele.

Fulmer recomenda que as pessoas usem chatbots em colaboração com aconselhamento humano. Um terapeuta pode ajudar a navegar pelos objetivos pessoais do paciente com o uso dos bots e esclarecer quaisquer mal-entendidos da sessão com o chatbot.

Houve algumas pesquisas sobre chatbots projetados por clínicos que podem potencialmente ajudar as pessoas a se educarem mais sobre saúde mental, incluindo mitigação de ansiedade, construção de hábitos saudáveis e redução do tabagismo.

Mas os riscos que vêm com o uso de chatbots gerais são que eles podem não ter sido projetados com a saúde mental em mente, segundo Marlynn Wei, psiquiatra e fundadora de uma prática de psicoterapia holística em Nova York. Os bots podem não ter “parâmetros de segurança e maneiras de identificar se o problema precisa ser encaminhado para um clínico ou um profissional humano”.

Os chatbots podem fornecer informações incorretas ou informações que o usuário quer ouvir em vez do que um terapeuta humano recomendaria tendo em mente a saúde mental, segundo Wei, que tem um projeto de performance que explora as reações das pessoas a clones de IA delas mesmas e de seus entes queridos.

“Os (problemas) são as “alucinações” e vieses e imprecisões”, conta Wei. “Tenho muita esperança na IA como uma forma de combinação e ampliação do trabalho, mas por si só, ainda existem preocupações sobre o viés que existe dentro da IA, e também o fato de que ela pode inventar coisas (…) Acho que é aí que ter um terapeuta humano seria mais útil.”

Os serviços de IA também têm diferentes diretrizes e restrições de segurança em termos do que os bots podem discutir com os usuários.

Os chatbots podem ser mais acessíveis para certas pessoas, como aquelas que não têm dinheiro ou seguro para terapia ou que não têm tempo em suas agendas, já que alguns chatbots são gratuitos e podem responder dia e noite, segundo Fulmer.

“Nesses casos, um chatbot seria preferível a nada”, mas as pessoas precisam entender o que um chatbot “pode e não pode fazer”, conta, acrescentando que um robô não é capaz de certos traços humanos como empatia.

Fulmer não aconselha menores ou outras populações vulneráveis a usar os chatbots sem orientação e supervisão de pais, professores, mentores ou terapeutas.

A Character.AI, uma empresa de chatbot de inteligência artificial, está atualmente enfrentando um processo movido por duas famílias que a acusaram de fornecer conteúdo sexual a seus filhos e incentivar a automutilação e violência. Separadamente, uma mãe da Flórida entrou com uma ação judicial em outubro alegando que a plataforma foi responsável pelo suicídio de seu filho de 14 anos, como a CNN informou anteriormente.

Chelsea Harrison, chefe de comunicações da Character.AI, explica à CNN anteriormente que a empresa não comenta sobre litígios pendentes, mas que “nosso objetivo é fornecer um espaço que seja envolvente e seguro para nossa comunidade.” A empresa diz que fez várias atualizações de segurança, incluindo garantir que os bots direcionarão os usuários para recursos de terceiros se mencionarem automutilação ou suicídio.

Chatbots vs. terapeutas humanos

Dr. Daniel Kimmel, psicólogo e professor assistente de psiquiatria clínica na Universidade Columbia, experimentou a terapia com ChatGPT em maio de 2023, dando ao chatbot um paciente hipotético e comparando as respostas com o que Kimmel teria oferecido ao paciente.

Ele diz à CNN que o chatbot “fez um trabalho incrivelmente bom em soar como um terapeuta e usar muitas das técnicas… que um terapeuta usaria para normalizar e validar a experiência de um paciente (e) fazer certos tipos de recomendações gerais, mas precisas.”

Mas o que faltava era a curiosidade que um psicoterapeuta humano poderia ter com um paciente, fazendo perguntas que vão um pouco além do que o paciente inicialmente diz e que “conectam os pontos sob a superfície”, acrescenta.

“Como terapeuta, acredito que os terapeutas estão fazendo pelo menos três coisas ao mesmo tempo. Estamos ouvindo o que os pacientes estão dizendo em suas palavras. Você tem que fazer isso para estar na conversa”, afirma Kimmel. “Então, no fundo da sua mente, você está tentando conectar o que eles estão dizendo a coisas maiores que o paciente disse antes (e) conceitos e teorias com os quais você está familiarizado em sua experiência, e então finalmente filtrando o resultado disso através de ideias sobre o que será mais útil para o paciente.”

Neste momento, os chatbots podem representar riscos se não cumprirem essas etapas e, em vez disso, fornecerem orientações que o paciente pode não estar pronto para ouvir ou que podem não ser úteis na situação, segundo o especialista.

Além disso, as conversas com terapeutas profissionais são cobertas pela Lei de Portabilidade e Responsabilidade do Seguro de Saúde, conhecida como HIPAA, e suas informações de saúde são privadas e protegidas, segundo Wei. Os chatbots gerais frequentemente não estão em conformidade com a lei federal que restringe a divulgação de informações médicas, e as empresas por trás dos bots frequentemente aconselham os usuários a não compartilhar informações sensíveis em suas conversas com os bots, acrescenta Wei.

Por fim, Kimmel conta que pesquisas futuras sobre chatbots de IA seriam benéficas para entender seu potencial e aplicações para a saúde mental. “Esta não é uma tecnologia que vai desaparecer”.

Dunham diz que acredita que a tecnologia poderia ser útil para pessoas como ela que se sentem mais introvertidas e querem expressar seus sentimentos sem outra pessoa presente.

“Temos que priorizar nossa saúde mental acima de tudo”, afirma Dunham “Mesmo que não pareça uma forma tradicional (de terapia), não devemos menosprezá-la, porque isso pode ajudar muitas pessoas.”

Para ela, “a lição seria simplesmente não julgar a próxima pessoa pela forma como ela se cura.”

Treinos montados no ChatGPT e Gemini funcionam? Especialistas analisam

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *