CARREGANDO

Digite para pesquisar

Destaques Saúde e Ciência Social

Terapia não é tecnologia: inteligência artificial e cuidado emocional

Compartilhar

Por Luisa de Melo Silva, psicóloga

Nos últimos anos, a presença da inteligência artificial em nossas vidas cresceu exponencialmente, inclusive na área da saúde emocional. Cada vez mais pessoas têm recorrido a assistentes virtuais para conversar, desabafar ou obter conselhos. O que antes era visto como tecnologia aplicada à produtividade agora é apontado, por muitos, como uma forma de “terapia”. Esse uso do termo, no entanto, merece uma reflexão crítica.

O termo ‘terapia’ vem do grego therapeia, que significa ‘cura, tratamento’. Ele é usado para designar qualquer tipo de intervenção voltada para o alívio ou solução de um problema de saúde. Ou seja, terapia não é uma simples conversa, é um processo com finalidade de cuidado, com base técnica e responsabilidade professional e ética.

Nesse contexto, quando plataformas ou sistemas de inteligência artificial são apresentados como substitutos de terapias reais, ocorre um deslocamento perigoso do significado. Ainda que a IA possa oferecer acolhimento momentâneo, isso não significa que esteja oferecendo um tratamento no sentido pleno do termo.

É compreensível que muitas pessoas estejam buscando esse tipo de recurso. A IA está disponível 24 horas por dia, não exige agendamento nem deslocamento, não julga, responde de maneira imediata e, muitas vezes, gratuita. Em um mundo com crescente dificuldade de acesso à saúde, esses elementos tornam a tecnologia extremamente atraente.

Em um artigo publicado na Harvard Business Review (Zao-Sanders, 2025), o autor observa que o uso emocional da IA já superou seu uso técnico, pois muitas pessoas veem nesses sistemas uma forma de companhia e regulação emocional. Mas é importante lembrar que, por mais que um sistema responda com empatia simulada, ele não realiza avaliação clínica, não identifica riscos reais nem conduz um plano de tratamento.

Permitir que o termo ‘terapia’ seja aplicado indiscriminadamente a interações com robôs ou algoritmos pode levar pessoas em sofrimento a acreditarem que estão sendo cuidadas, quando na verdade estão apenas sendo ouvidas por um sistema. Isso pode atrasar o acesso ao cuidado real e aprofundar quadros de sofrimento psíquico.

Além disso, essa substituição pode gerar outros problemas importantes: a dependência emocional de sistemas que não oferecem respaldo real em situações de crise, a falsa sensação de progresso terapêutico, o reforço de padrões de pensamento disfuncionais e a ausência de responsabilização por conselhos equivocados. Como a IA não tem consciência nem compromisso clínico, qualquer orientação dada por ela pode ser mal interpretada ou até perigosa, especialmente em quadros mais sensíveis.

A tecnologia pode ser uma aliada no cuidado em saúde. Pode ajudar na educação, na triagem, no monitoramento e até no incentivo ao autocuidado. Mas ela não pode substituir o papel do profissional responsável por conduzir um tratamento terapêutico de verdade.

Terapia é uma intervenção séria, feita com propósito clínico, baseada em técnicas, ética e responsabilidade. Confundi-la com o funcionamento de uma máquina pode ser imprudente — não apenas para a saúde individual, mas também para o valor que damos ao cuidado humano.

 

 

 

 

Tags: