Instagram anuncia alertas para pais sobre buscas por suicídio feitas por adolescentes

Instagram vai alertar pais sobre buscas por suicídio feitas por adolescentes

Destaques

Nova ferramenta do Instagram gera críticas de entidades de prevenção ao suicídio

Instagram anunciou que passará a alertar pais e responsáveis quando adolescentes pesquisarem repetidamente termos relacionados a suicídio ou automutilação dentro da plataforma. A medida marca a primeira vez que a empresa, pertencente à Meta, decide notificar de forma proativa os responsáveis sobre hábitos de busca dos jovens.

Até então, a atuação da plataforma se limitava a bloquear determinadas pesquisas e redirecionar usuários para serviços externos de apoio psicológico. Com a nova funcionalidade, os alertas serão enviados sempre que houver um padrão de buscas considerado preocupante em um curto intervalo de tempo.

Medida começa em quatro países

O novo recurso começa a ser implementado a partir da próxima semana para famílias que utilizam o programa Contas para Adolescentes do Instagram no Reino Unido, Estados Unidos, Austrália e Canadá. Segundo a Meta, a ideia é expandir gradualmente a funcionalidade para outros países.

Os alertas poderão ser enviados por e-mail, mensagem de texto, WhatsApp ou diretamente pelo aplicativo, de acordo com os dados de contato disponíveis. A empresa afirma que os avisos virão acompanhados de materiais produzidos por especialistas, com orientações sobre como abordar o assunto com os adolescentes.

Entidades dizem que alertas podem causar pânico

Apesar do anúncio, a iniciativa recebeu duras críticas de organizações de prevenção ao suicídio. A Molly Rose Foundation, do Reino Unido, afirmou que a medida pode causar mais prejuízos do que benefícios.

Segundo Andy Burrows, diretor-executivo da fundação, notificações desse tipo podem gerar pânico nos pais e deixá-los despreparados para lidar com conversas delicadas. A entidade foi criada pela família de Molly Russell, adolescente que morreu em 2017 após exposição a conteúdos sobre automutilação e suicídio em redes sociais, incluindo o Instagram.

O pai da jovem, Ian Russell, também demonstrou ceticismo. Para ele, receber um alerta desses em meio ao trabalho pode ser devastador emocionalmente. Segundo Russell, mesmo com materiais de apoio, o impacto inicial da notificação pode não ser a melhor forma de lidar com uma situação tão sensível.

Críticas apontam falha estrutural das plataformas

Outras organizações também questionaram a eficácia da medida. A Papyrus Prevention of Young Suicide afirmou que, embora a iniciativa seja bem-intencionada, ela ignora o problema central: o funcionamento dos algoritmos.

Segundo Ged Flynn, diretor da entidade, os pais não querem ser avisados depois que seus filhos já foram expostos a conteúdos prejudiciais. Eles querem que esses conteúdos não sejam recomendados ou incentivados desde o início.

A organização 5Rights, que defende os direitos das crianças, reforçou que a Meta deveria repensar seus sistemas e torná-los adequados à idade dos usuários desde a concepção, e não apenas adicionar camadas reativas de proteção.

Meta defende iniciativa e promete mais recursos

A Meta contestou pesquisas que indicam que o Instagram ainda recomenda conteúdos sensíveis para jovens vulneráveis. Segundo a empresa, os estudos distorcem seus esforços para proteger adolescentes e empoderar famílias.

De acordo com a companhia, os alertas foram criados para sinalizar mudanças repentinas de comportamento, priorizando a cautela, mesmo que isso gere notificações em situações que não representem risco real.

Especialistas em segurança digital afirmam que o alerta, por si só, pode assustar, mas que o impacto depende da qualidade das informações e do suporte oferecido aos pais após a notificação.

Além disso, o Instagram informou que estuda implementar alertas semelhantes quando adolescentes abordarem temas de automutilação e suicídio em conversas com o chatbot de inteligência artificial da plataforma, já que muitos jovens recorrem cada vez mais à IA em busca de apoio emocional.

Pressão global por mais proteção infantil

As grandes plataformas de redes sociais vêm enfrentando crescente pressão de governos e órgãos reguladores para ampliar a proteção de crianças e adolescentes. A Austrália já proibiu redes sociais para menores de 16 anos, enquanto países como Espanha, França e Reino Unido analisam medidas semelhantes.

Executivos da Meta, incluindo Mark Zuckerberg e Adam Mosseri, também têm sido chamados a prestar esclarecimentos em tribunais nos Estados Unidos sobre o impacto de seus produtos na saúde mental de jovens usuários.

Fonte: Mundo Noticiário – https://mundonoticiario.com/
Conteúdo reproduzido com autorização editorial para veículos de imprensa.

👉 Para mais notícias sobre tecnologia, comportamento digital e saúde mental, acesse:
https://paulistanoticiaspe.com.br/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *