(self.SWG_BASIC = self.SWG_BASIC || []).push( basicSubscriptions => { basicSubscriptions.init({ type: "NewsArticle", isPartOfType: ["Product"], isPartOfProductId: "CAow8LzYCw:openaccess", clientOptions: { theme: "light", lang: "pt-BR" }, }); });

Chatbots não estão preparados para lidar com saúde mental de jovens, diz pesquisa

Facebook
Twitter
LinkedIn
Threads
WhatsApp
Chatbots não estão preparados para lidar com saúde mental de jovens, diz pesquisa

Pesquisa aponta que ferramentas de IA ignoram sinais graves de risco e podem reforçar comportamentos perigosos

Imagem: antoniodiaz/Shutterstock

Compartilhe esta matéria

Siga o Olhar Digital no Google Discover

Adolescentes têm recorrido cada vez mais a chatbots de inteligência artificial generativa para buscar apoio emocional e orientações sobre saúde mental. Mas um novo relatório indica que esse é um dos usos mais arriscados da tecnologia, como explica o Wall Street Journal.

Segundo a pesquisa, as plataformas podem ignorar sinais de alerta graves e deixar de identificar situações de emergência, enquanto passam aos jovens a impressão de confiabilidade.

jovem
Chatbots de IA falham com adolescentes em crise, alerta estudo – Imagem: Javier Bermudez Zayas/Shutterstock

Falhas repetidas na identificação de riscos

  • O estudo foi conduzido pela Common Sense Media, em parceria com o Laboratório Brainstorm de Inovação em Saúde Mental da Escola de Medicina de Stanford.
  • Pesquisadores testaram quatro sistemas líderes — ChatGPT, Claude, Gemini e Meta AI — simulando conversas de adolescentes.
  • Em todas as plataformas, os chatbots deixaram de reconhecer sintomas graves, como alucinações, paranoia, episódios maníacos, automutilação, transtornos alimentares e depressão.
  • Em vez de encaminhar para ajuda urgente, continuaram oferecendo conselhos genéricos.

Para a psiquiatra Nina Vasan, diretora do laboratório da Stanford, adolescentes são especialmente vulneráveis porque ainda desenvolvem pensamento crítico e tendem a buscar validação.

“Quando essas vulnerabilidades encontram sistemas projetados para serem envolventes e disponíveis 24 horas por dia, a combinação é particularmente perigosa”, afirmou.

Relatório mostra que chatbots oferecem conselhos genéricos e não reconhecem emergências de saúde mental (Imagem: Ascannio/Shutterstock)

Empresas respondem, mas estudo vê risco persistente

OpenAI, Google, Meta e Anthropic destacaram políticas de segurança e atualizações recentes, mas a Common Sense Media conclui que os chatbots ainda não são seguros para jovens.

Em interações longas, as ferramentas perderam contexto e chegaram a sugerir maneiras de esconder cicatrizes de automutilação ou dar dicas de dieta a usuários com sintomas de transtornos alimentares.

Com três suicídios já associados ao uso de IA como companhia, especialistas defendem maior supervisão, limites claros para menores e acesso ampliado a cuidados profissionais.

Plataformas encorajam engajamento, mas falham em orientar usuários a buscar ajuda real (Imagem: oatawa/Shutterstock)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.


Fonte Original | Notícias – Olhar Digital

Contribua com o Portal para mantermos ele sempre ativo com as melhores informações

Deixe uma resposta

Veja também