Nova ferramenta do Instagram gera críticas de entidades de prevenção ao suicídio
O Instagram anunciou que passará a alertar pais e responsáveis quando adolescentes pesquisarem repetidamente termos relacionados a suicídio ou automutilação dentro da plataforma. A medida marca a primeira vez que a empresa, pertencente à Meta, decide notificar de forma proativa os responsáveis sobre hábitos de busca dos jovens.
Até então, a atuação da plataforma se limitava a bloquear determinadas pesquisas e redirecionar usuários para serviços externos de apoio psicológico. Com a nova funcionalidade, os alertas serão enviados sempre que houver um padrão de buscas considerado preocupante em um curto intervalo de tempo.
Medida começa em quatro países
O novo recurso começa a ser implementado a partir da próxima semana para famílias que utilizam o programa Contas para Adolescentes do Instagram no Reino Unido, Estados Unidos, Austrália e Canadá. Segundo a Meta, a ideia é expandir gradualmente a funcionalidade para outros países.
Os alertas poderão ser enviados por e-mail, mensagem de texto, WhatsApp ou diretamente pelo aplicativo, de acordo com os dados de contato disponíveis. A empresa afirma que os avisos virão acompanhados de materiais produzidos por especialistas, com orientações sobre como abordar o assunto com os adolescentes.

Entidades dizem que alertas podem causar pânico
Apesar do anúncio, a iniciativa recebeu duras críticas de organizações de prevenção ao suicídio. A Molly Rose Foundation, do Reino Unido, afirmou que a medida pode causar mais prejuízos do que benefícios.
Segundo Andy Burrows, diretor-executivo da fundação, notificações desse tipo podem gerar pânico nos pais e deixá-los despreparados para lidar com conversas delicadas. A entidade foi criada pela família de Molly Russell, adolescente que morreu em 2017 após exposição a conteúdos sobre automutilação e suicídio em redes sociais, incluindo o Instagram.
O pai da jovem, Ian Russell, também demonstrou ceticismo. Para ele, receber um alerta desses em meio ao trabalho pode ser devastador emocionalmente. Segundo Russell, mesmo com materiais de apoio, o impacto inicial da notificação pode não ser a melhor forma de lidar com uma situação tão sensível.
Críticas apontam falha estrutural das plataformas
Outras organizações também questionaram a eficácia da medida. A Papyrus Prevention of Young Suicide afirmou que, embora a iniciativa seja bem-intencionada, ela ignora o problema central: o funcionamento dos algoritmos.
Segundo Ged Flynn, diretor da entidade, os pais não querem ser avisados depois que seus filhos já foram expostos a conteúdos prejudiciais. Eles querem que esses conteúdos não sejam recomendados ou incentivados desde o início.
A organização 5Rights, que defende os direitos das crianças, reforçou que a Meta deveria repensar seus sistemas e torná-los adequados à idade dos usuários desde a concepção, e não apenas adicionar camadas reativas de proteção.
Meta defende iniciativa e promete mais recursos
A Meta contestou pesquisas que indicam que o Instagram ainda recomenda conteúdos sensíveis para jovens vulneráveis. Segundo a empresa, os estudos distorcem seus esforços para proteger adolescentes e empoderar famílias.
De acordo com a companhia, os alertas foram criados para sinalizar mudanças repentinas de comportamento, priorizando a cautela, mesmo que isso gere notificações em situações que não representem risco real.
Especialistas em segurança digital afirmam que o alerta, por si só, pode assustar, mas que o impacto depende da qualidade das informações e do suporte oferecido aos pais após a notificação.
Além disso, o Instagram informou que estuda implementar alertas semelhantes quando adolescentes abordarem temas de automutilação e suicídio em conversas com o chatbot de inteligência artificial da plataforma, já que muitos jovens recorrem cada vez mais à IA em busca de apoio emocional.
Pressão global por mais proteção infantil
As grandes plataformas de redes sociais vêm enfrentando crescente pressão de governos e órgãos reguladores para ampliar a proteção de crianças e adolescentes. A Austrália já proibiu redes sociais para menores de 16 anos, enquanto países como Espanha, França e Reino Unido analisam medidas semelhantes.
Executivos da Meta, incluindo Mark Zuckerberg e Adam Mosseri, também têm sido chamados a prestar esclarecimentos em tribunais nos Estados Unidos sobre o impacto de seus produtos na saúde mental de jovens usuários.
Fonte: Mundo Noticiário – https://mundonoticiario.com/
Conteúdo reproduzido com autorização editorial para veículos de imprensa.
👉 Para mais notícias sobre tecnologia, comportamento digital e saúde mental, acesse:
https://paulistanoticiaspe.com.br/
