Quando a tecnologia valida o desespero

*Sheron Mendes

JULIA ESTEVAM
01/10/2025 16h29 - Atualizado há 1h

Quando a tecnologia valida o desespero
Banco Uninter

Mensagens de encorajamento para tirar a própria vida enviadas pelo ChatGPT a um adolescente de 16 anos resultaram em sua morte e levaram seus pais a processar a OpenAI. O caso de Adam Raine não é apenas uma tragédia pontual, mas um grito da era digital. Ele expõe a perigosa ilusão de acreditar que uma máquina possa substituir a presença humana no momento de grande fragilidade: a dor.

Desde os anos 1970, Joseph Weizenbaum já alertava com o programa ELIZA que bastava simular compreensão para que as pessoas atribuíssem humanidade a linhas de código. O que nos anos 70 parecia apenas uma “curiosidade acadêmica", hoje se tornou o epicentro de uma ameaça à antropomorfização das IAs, que assumem entonações empáticas e personalizadas. Soma-se a isso o chamado pleasing algorítmico, esse ajuste dinâmico não distingue entre risco e segurança, só busca agradar. Pesquisas da Universidade de Washington mostram que esses modelos são capazes de adaptar dinamicamente suas respostas às preferências individuais. Em português claro: uma fala de desespero pode não ser questionada, mas sim validada e reforçada, criando um ciclo de risco.

O cenário é ainda mais preocupante porque um estudo da Common Sense Media (2024) revelou que mais de 70% dos jovens já usaram “companheiros de IA”, e um terço deles recorre a essas conversas para tratar de assuntos sérios em vez de procurar apoio de amigos ou profissionais. O que encontram, no entanto, não é questionamento nem reflexão. A máquina não confronta, não oferece resistência, não escuta de fato: apenas retroalimenta comportamentos e sentimentos. Quando esse círculo se estabelece em jovens cuja capacidade de tomada de decisão ainda não está plenamente desenvolvida, o perigo é incalculável. O jornal The Guardian (2025) relatou que terapeutas estão alarmados com o aumento da dependência emocional e dos autodiagnósticos promovidos por interações com IA,  dinâmicas que podem agravar ideação suicida ou crenças delirantes, tudo isso sem regulação ou supervisão clínica adequada.

Estamos formando uma geração que desabafa com algoritmos, mas silencia diante de pessoas. A chamada ‘engenharia de prompt’ ensina a moldar perguntas para extrair respostas da máquina, mas não prepara para a complexidade de uma conversa humana, que nem sempre é agradável. O resultado é uma falsa sensação de acolhimento que alimenta a desesperança e multiplica o risco.

Estudos reunidos no livro Psiquiatria Digital (2024) mostram que a IA pode ter utilidade em triagens e na identificação de sinais de alerta, ampliando o acesso a recursos de saúde mental. A máquina pode auxiliar, jamais substituir o vínculo humano, a responsabilidade social e a ética do cuidado.

A tragédia de Adam Raine não deve ser vista como exceção, mas como aviso. A infância e a adolescência, marcadas por vulnerabilidade emocional e por estruturas cognitivas ainda em formação, não podem ser entregues a sistemas que apenas fingem escutar. A urgência está em educar para o uso crítico e instituir mediação responsável, sob pena de naturalizarmos que máquinas reforcem o que deveria ser cuidado e interromperem vidas que poderiam ser salvas.

 

*Sheron Mendes é Bióloga, especialista em Neurociência do Comportamento e professora dos cursos de pós-graduação em Educação na UNINTER.

 


Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIA CRISTINA ALVES ESTEVAM
[email protected]


Notícias Relacionadas »
Comentários »
Comentar

*Ao utilizar o sistema de comentários você está de acordo com a POLÍTICA DE PRIVACIDADE do site https://itaqueraemnoticias.com.br/.