Com
a popularização da inteligência artificial, ferramentas como o ChatGPT
passaram a fazer parte do cotidiano de milhões de pessoas. Elas ajudam a
organizar tarefas, escrever textos, esclarecer dúvidas e até simular
conversas. No entanto, uma tendência preocupante tem chamado a atenção
de especialistas: algumas pessoas estão tentando substituir a terapia
psicológica por interações com robôs de conversação.
É sobre esse tema que Lívia Barreto, psicóloga e Head da Mental One,
traz uma reflexão importante, explicando os riscos dessa prática e a
diferença entre o suporte oferecido pela tecnologia e o cuidado
especializado de um profissional de saúde mental.
A diferença entre suporte e tratamento
Embora
a IA possa oferecer informações, reflexões ou até um espaço momentâneo
de desabafo, ela não substitui o trabalho de um psicólogo. A terapia é
um processo clínico e relacional, que envolve escuta qualificada,
diagnóstico, técnicas baseadas em evidências e acompanhamento contínuo.
Um
modelo de linguagem como o ChatGPT não tem capacidade de avaliar
contextos clínicos, interpretar sinais subjetivos ou oferecer
intervenções terapêuticas adequadas. Ele pode até gerar respostas
acolhedoras, mas não consegue substituir a profundidade, a ética e a
responsabilidade de um profissional de saúde mental.
Além
disso, é importante destacar que o ChatGPT foi programado para dar
“respostas que queremos ouvir”. Isso significa que, muitas vezes, ele
pode acabar validando comportamentos ou pensamentos que precisariam ser
questionados e transformados. Na terapia, existe o que chamamos de
confronto empático: o psicólogo aponta padrões disfuncionais e aspectos
que precisam mudar, mas de forma acolhedora e respeitosa. A IA não tem
essa capacidade — o que pode levar a uma perpetuação de comportamentos
prejudiciais.
Outro
ponto é que o chat não capta expressões faciais, não interpreta
entrelinhas nem os sinais não verbais que os pacientes emitem durante a
sessão — elementos fundamentais para o processo terapêutico.
Os riscos de trocar terapia por IA
Optar
por conversar apenas com uma inteligência artificial em vez de buscar
acompanhamento especializado pode trazer riscos sérios:
• Falsas percepções de cuidado: a pessoa pode acreditar que está em tratamento quando, na verdade, não está.
• Ausência de responsabilidade profissional: a IA não responde legalmente ou eticamente por conselhos dados.
• Risco
em crises: em situações graves, como pensamentos suicidas, a ferramenta
não pode intervir de forma adequada e segura.
• Superficialidade
no acolhimento: falta de profundidade para lidar com traumas, padrões
emocionais e histórias pessoais complexas.
O papel saudável da tecnologia
Isso
não significa que ferramentas de IA não possam contribuir. Elas podem
apoiar o processo terapêutico de forma complementar, ajudando no
autoconhecimento, na organização de pensamentos ou no acesso a
informações sobre saúde mental. O ponto central é compreender seus
limites e não tratá-las como substitutos da psicoterapia.
O caminho seguro
A
saúde mental é um tema sério, que exige cuidado profissional, ética e
responsabilidade. A tecnologia pode ser uma aliada, mas nunca um
substituto.
Na
Mental One, acreditamos que terapia é um espaço humano, único e
insubstituível. Usar inteligência artificial como ferramenta
complementar pode fazer sentido, mas o acompanhamento terapêutico só
pode ser conduzido por profissionais capacitados.
Lívia Barreto, psicóloga e head da Mental One,
Nenhum comentário:
Postar um comentário