Os novos recursos de segurança da Apple para menores de idade, inclusive, estão causando um fervor.
Explicando:
Uma triste e relevante porcentagem de usuários trafica material de abuso sexual infantil, que é, em outras palavras, pornografia infantil. Com isso, a gigante da tecnologia decidiu impedir a disseminação desses conteúdos.
Como? A Apple fará uma varredura nos iPhones para fotos ilícitas, com base no seguinte:
A companhia tem um banco de dados de material de abuso sexual infantil dado pelo Centro Nacional para Crianças Desaparecidas e Exploradas;
Ela vai, então, compará-lo com as fotos criptografadas enviadas ao iCloud; caso um limite mínimo de possíveis fotos seja correspondido, a conta será sinalizada e eles analisarão as fotos (afinal, pode ser um pai que enviou muitas fotos do primeiro banho do seu filho no grupo da família).
O problema é sério e carece de solução. Então, por que é controverso? Há pontuações de que, com esse sistema, a Apple poderia facilmente escanear qualquer conteúdo para algo que eles ou algum governo, por exemplo, desejem controlar.
A empresa, então, divulgou um FAQ de 6 páginas, dizendo que recusaria demandas para rastrear imagens que não fossem de abuso sexual infantil.
Ainda envolvendo crianças e tecnologia… O Google anunciou que não vai permitir mais segmentação de anúncios para crianças com base em sua idade, sexo ou interesses. O Facebook foi na mesma linha, mas só para interesses e atividades.