O Instagram anunciou, nesta quinta-feira (14), uma nova funcionalidade de segurança que notificará pais e responsáveis caso adolescentes realizem buscas repetitivas por termos ligados a suicídio e automutilação. O recurso, que já operava em países como Estados Unidos e Reino Unido, será lançado no Brasil na próxima semana e também na Índia e na União Europeia. Para que os alertas funcionem, é necessário que a supervisão parental esteja ativada na conta do menor, permitindo que a Meta envie os avisos por e-mail, SMS, WhatsApp ou diretamente pelo aplicativo.
A Meta esclareceu que o objetivo da ferramenta é promover a intervenção precoce dos responsáveis, embora ressalte que a maioria dos jovens não utiliza a plataforma para tais finalidades. Atualmente, o sistema já bloqueia resultados de pesquisas sensíveis e direciona o usuário para canais de apoio especializados. A nova camada de proteção surge em um momento de intensificação das políticas de segurança da empresa, que busca equilibrar a privacidade dos usuários com a necessidade de monitoramento preventivo diante de comportamentos de risco online.
Além dos alertas de busca, a rede social tem investido em inteligência artificial para aprimorar a verificação de idade de seus usuários. Recentemente, a empresa revelou o uso de uma tecnologia capaz de analisar características físicas em imagens para identificar contas de menores de 13 anos, sem recorrer ao reconhecimento facial. Essas medidas acompanham uma tendência global de plataformas digitais que, sob pressão de órgãos reguladores e da sociedade civil, implementam métodos mais rigorosos de identificação e proteção para garantir um ambiente digital seguro para crianças e adolescentes.
Fonte: G1

.jpeg)

0 Comentários