“Sem vínculo não há processo terapêutico”: uso de IA pode gerar dependência e até depressão

Com aumento das buscas por apoio emocional em IAs no Brasil, psicólogo reforça que o vínculo humano é insubstituível no tratamento.

Imagem: Fernando Ferrari, psicólogo clínico falando sobre IA e terapia

Em meio às campanhas de prevenção do Setembro Amarelo, crescem os debates sobre o papel das tecnologias conversacionais, como o ChatGPT, no apoio emocional e terapêutico. Em entrevista ao IT Forum, o psicólogo clínico Fernando Ferrari alertou para os riscos de transformar essas IAs em substitutas da psicoterapia: “O ChatGPT não aplica técnicas estruturadas, não estabelece objetivos individualizados nem oferece continuidade no acompanhamento”, afirma Ferrari. “Na prática, torna-se um desabafo momentâneo que pode dar à pessoa a falsa sensação de estar sendo tratada.”

Um dos trabalhos mais relevantes sobre o tema é o estudo Evaluation of Alignment Between Large Language Models and Expert Cl..., publicado em agosto de 2025 na revista Psychiatric Services, da American Psychiatric Association. Conduzido por Ryan K. McBain e colegas da RAND Corporation, a pesquisa foi financiada pelo National Institute of Mental Health, dos Estados Unidos.

Principais resultados:

  • Foram testadas 30 perguntas relacionadas ao suicídio, em cinco níveis de risco, direcionadas a três chatbots: ChatGPT (OpenAI), Claude (Anthropic) e Gemini (Google), totalizando 9.000 respostas.
  • Os modelos responderam adequadamente em cenários de risco muito baixo e muito alto – evitando, por exemplo, dar instruções explícitas para métodos letais.
  • Contudo, nos casos de risco intermediário (baixo, médio e alto), as respostas foram inconsistentes: às vezes adequadas, às vezes superficiais ou até impróprias.
  • Essa “zona cinzenta” é crítica, pois corresponde justamente a muitas situações reais em que pessoas em sofrimento começam a buscar ajuda.

Segundo os autores, os resultados mostram que os LLMs não conseguem distinguir nuances de risco suicida de forma confiável, o que pode ter consequências graves se usados como substitutos da psicoterapia.

O que a IA faz – e o que ela não faz

Ferrari resume a diferença essencial: enquanto um psicólogo escuta continuamente, observa sinais não-verbais, reavalia, aplica intervenções técnicas e constrói vínculo terapêutico, a IA responde por padrão com base em grandes volumes de texto. “Ela oferece uma presença momentânea, empática na superfície, mas não constrói vínculo – e sem essa ligação, não há processo terapêutico”, afirma.

Leia também: Mortes revelam falhas éticas e técnicas nas “terapias por IA”

Pesquisas como a da RAND reforçam essa limitação: justamente nos cenários intermediários, em que sinais podem ser sutis, a IA falha em oferecer suporte seguro.

Casos reais que preocupam

Internacionalmente, episódios recentes levantaram preocupação: familiares de jovens chegaram a processar empresas de chatbots por entender que respostas inadequadas agravaram sofrimento emocional. Esses casos levaram a discussões regulatórias sobre como IA deve tratar conteúdos sensíveis.

Como as Big techs estão reagindo

Diante da pressão social e de casos que ganharam repercussão internacional, empresas responsáveis por esses sistemas começaram a implementar medidas de proteção. Uma delas foi a OpenAI.

A OpenAI, criadora do ChatGPT, anunciou em setembro de 2025 que vai introduzir:

  • Controles parentais, permitindo que pais vinculem suas contas às de filhos adolescentes, configurem limites de uso e desativem recursos como memória de conversas.
  • Uma versão mais segura para menores de 18 anos, com respostas adaptadas e restrição a certos tipos de conteúdo sensível.
  • Alertas aos responsáveis quando o sistema identificar sinais de sofrimento emocional durante as interações

A empresa também afirmou que não quer que o ChatGPT seja visto como substituto de terapeuta, e que está desenvolvendo salvaguardas específicas para redirecionar usuários em crise para atendimento humano.

Ainda assim, especialistas como Ferrari alertam que medidas técnicas não substituem o papel humano no cuidado em saúde mental.

Contexto brasileiro: dados locais

  • Fiocruz (2024): estudo apontou crescimento médio de 6% ao ano nas taxas de suicídio entre jovens entre 2011 e 2022, além do aumento das notificações de autolesões.
  • CNN Brasil (2024): cerca de 1 em cada 10 brasileiros já usou IA como apoio psicológico, segundo levantamento mencionado em reportagem – prática motivada por acessibilidade e anonimato, mas criticada por especialistas como uma “falsa sensação de cuidado”.
  • Fenati (2024): associação de terapeutas identificou aumento do uso de IA em substituição à psicoterapia no Brasil, especialmente entre jovens, alertando para riscos de isolamento social e dependência emocional.
  • Agência Brasil (2025): reportagem recente reforçou preocupações de especialistas brasileiros sobre consultas simuladas em IA, classificadas como de “alto risco” para saúde mental.

Esses dados mostram que o alerta não é abstrato: o Brasil já enfrenta aumento de sofrimento psíquico e uma parcela significativa da população recorre a chatbots em busca de acolhimento – o que torna o risco ainda mais urgente.

Dependência emocional e isolamento social

Além do risco imediato em situações de crise, Ferrari também chama atenção para os efeitos do uso excessivo da LLms no longo prazo:

“Quem não sabe usar de uma forma coerente, correta, com equilíbrio, acaba se perdendo. O excesso pode levar a isolamento social, que é fator de risco para transtornos como a depressão. Pode-se criar até uma dependência emocional da tecnologia, uma visão distorcida de como são as relações humanas reais. A IA fofinha não confronta, não traz conflito, mas também não traz a vida real, e isso pode causar prejuízo emocional.”

Para o psicólogo, o fenômeno reforça a ideia de que a IA deve ser vista como complemento, nunca como substituta da convivência humana ou da psicoterapia.

Quando a IA pode ajudar e como usar com segurança

Fernando Ferrari aponta que a IA pode e deve ter um papel complementar, por exemplo:

  • Psicoeducação: explicações sobre ansiedade, depressão e TDAH; materiais e leituras recomendadas.

  • Porta de entrada: servir como primeiro contato para pessoas com medo ou vergonha de procurar ajuda presencial.

  • Encaminhamento: redirecionar usuários a serviços humanos quando sinais de risco aparecem.

Mas ele reforça: “em hipótese alguma a inteligência artificial deve substituir o acompanhamento profissional, sobretudo em casos de crise ou ideação suicida. Atendimento humano é insubstituível.”

No contexto do Setembro Amarelo, a mensagem é dupla: a tecnologia pode ampliar o acesso a informações e reduzir barreiras iniciais, mas transformar chatbots em terapeutas é um risco real e já documentado. Como sintetiza Fernando Ferrari: “IA é ferramenta, não substituto. Usada com critério e integração a redes de cuidado, pode ser aliada. Mas sem isso, é perigosa.”

Aviso: se você estiver enfrentando pensamentos suicidas ou uma crise, procure ajuda imediatamente. Ligue 188 (CVV) ou acesse o chat do CVV. O atendimento é sigiloso e funciona 24 horas por dia.

Exibições: 12

Comentar

Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!

Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI

© 2025   Criado por Textile Industry.   Ativado por

Badges  |  Relatar um incidente  |  Termos de serviço