Industria Textil e do Vestuário - Textile Industry - Ano XVI
Com aumento das buscas por apoio emocional em IAs no Brasil, psicólogo reforça que o vínculo humano é insubstituível no tratamento.
Em meio às campanhas de prevenção do Setembro Amarelo, crescem os debates sobre o papel das tecnologias conversacionais, como o ChatGPT, no apoio emocional e terapêutico. Em entrevista ao IT Forum, o psicólogo clínico Fernando Ferrari alertou para os riscos de transformar essas IAs em substitutas da psicoterapia: “O ChatGPT não aplica técnicas estruturadas, não estabelece objetivos individualizados nem oferece continuidade no acompanhamento”, afirma Ferrari. “Na prática, torna-se um desabafo momentâneo que pode dar à pessoa a falsa sensação de estar sendo tratada.”
Um dos trabalhos mais relevantes sobre o tema é o estudo Evaluation of Alignment Between Large Language Models and Expert Cl..., publicado em agosto de 2025 na revista Psychiatric Services, da American Psychiatric Association. Conduzido por Ryan K. McBain e colegas da RAND Corporation, a pesquisa foi financiada pelo National Institute of Mental Health, dos Estados Unidos.
Segundo os autores, os resultados mostram que os LLMs não conseguem distinguir nuances de risco suicida de forma confiável, o que pode ter consequências graves se usados como substitutos da psicoterapia.
Ferrari resume a diferença essencial: enquanto um psicólogo escuta continuamente, observa sinais não-verbais, reavalia, aplica intervenções técnicas e constrói vínculo terapêutico, a IA responde por padrão com base em grandes volumes de texto. “Ela oferece uma presença momentânea, empática na superfície, mas não constrói vínculo – e sem essa ligação, não há processo terapêutico”, afirma.
Leia também: Mortes revelam falhas éticas e técnicas nas “terapias por IA”
Pesquisas como a da RAND reforçam essa limitação: justamente nos cenários intermediários, em que sinais podem ser sutis, a IA falha em oferecer suporte seguro.
Internacionalmente, episódios recentes levantaram preocupação: familiares de jovens chegaram a processar empresas de chatbots por entender que respostas inadequadas agravaram sofrimento emocional. Esses casos levaram a discussões regulatórias sobre como IA deve tratar conteúdos sensíveis.
Diante da pressão social e de casos que ganharam repercussão internacional, empresas responsáveis por esses sistemas começaram a implementar medidas de proteção. Uma delas foi a OpenAI.
A OpenAI, criadora do ChatGPT, anunciou em setembro de 2025 que vai introduzir:
A empresa também afirmou que não quer que o ChatGPT seja visto como substituto de terapeuta, e que está desenvolvendo salvaguardas específicas para redirecionar usuários em crise para atendimento humano.
Ainda assim, especialistas como Ferrari alertam que medidas técnicas não substituem o papel humano no cuidado em saúde mental.
Esses dados mostram que o alerta não é abstrato: o Brasil já enfrenta aumento de sofrimento psíquico e uma parcela significativa da população recorre a chatbots em busca de acolhimento – o que torna o risco ainda mais urgente.
Além do risco imediato em situações de crise, Ferrari também chama atenção para os efeitos do uso excessivo da LLms no longo prazo:
“Quem não sabe usar de uma forma coerente, correta, com equilíbrio, acaba se perdendo. O excesso pode levar a isolamento social, que é fator de risco para transtornos como a depressão. Pode-se criar até uma dependência emocional da tecnologia, uma visão distorcida de como são as relações humanas reais. A IA fofinha não confronta, não traz conflito, mas também não traz a vida real, e isso pode causar prejuízo emocional.”
Para o psicólogo, o fenômeno reforça a ideia de que a IA deve ser vista como complemento, nunca como substituta da convivência humana ou da psicoterapia.
Fernando Ferrari aponta que a IA pode e deve ter um papel complementar, por exemplo:
Psicoeducação: explicações sobre ansiedade, depressão e TDAH; materiais e leituras recomendadas.
Porta de entrada: servir como primeiro contato para pessoas com medo ou vergonha de procurar ajuda presencial.
Encaminhamento: redirecionar usuários a serviços humanos quando sinais de risco aparecem.
Mas ele reforça: “em hipótese alguma a inteligência artificial deve substituir o acompanhamento profissional, sobretudo em casos de crise ou ideação suicida. Atendimento humano é insubstituível.”
No contexto do Setembro Amarelo, a mensagem é dupla: a tecnologia pode ampliar o acesso a informações e reduzir barreiras iniciais, mas transformar chatbots em terapeutas é um risco real e já documentado. Como sintetiza Fernando Ferrari: “IA é ferramenta, não substituto. Usada com critério e integração a redes de cuidado, pode ser aliada. Mas sem isso, é perigosa.”
Aviso: se você estiver enfrentando pensamentos suicidas ou uma crise, procure ajuda imediatamente. Ligue 188 (CVV) ou acesse o chat do CVV. O atendimento é sigiloso e funciona 24 horas por dia.
Bem-vindo a
Industria Textil e do Vestuário - Textile Industry - Ano XVI
© 2025 Criado por Textile Industry.
Ativado por
Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!
Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI