Apple está planejando lançar um novo sistema nos Estados Unidos para expandir as proteções para crianças para ajudá-las a se protegerem de predadores online e limitar a disseminação de Material de Abuso Sexual Infantil (CSAM).
Para isso, a gigante de Cupertino está introduzindo novos recursos de segurança infantil em três áreas, desenvolvidos em colaboração com especialistas em segurança infantil. Essas áreas são segurança de comunicação em Mensagens, detecção de CSAM e expansão de orientação em Siri e Pesquisa.
“No Apple, nosso objetivo é criar tecnologia que capacite as pessoas e enriqueça suas vidas – ao mesmo tempo que as ajuda a se manterem seguras ”, escreveu Apple em uma postagem de blog. “Este programa é ambicioso e proteger as crianças é uma responsabilidade importante. Esses esforços irão evoluir e expandir ao longo do tempo. ”
Segurança de comunicação em mensagens
O aplicativo Mensagens irá adicionar novas ferramentas para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. Isso também permitirá que os pais desempenhem um papel mais informado ajudando seus filhos a navegar na comunicação online.
Ao receber este tipo de conteúdo, a foto ficará desfocada e a criança será avisada, presenteada com recursos úteis e assegurada de que está tudo bem se não quiser ver esta foto. Como precaução adicional, a criança também pode ser informada de que, para ter certeza de que está segura, seus pais receberão uma mensagem se a virem.
Proteções semelhantes estão disponíveis se uma criança tentar enviar fotos sexualmente explícitas. A criança será avisada antes do envio da foto e os pais poderão receber uma mensagem se a criança decidir enviá-la.
O aplicativo Mensagens usará o aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita, enquanto mantém as comunicações privadas ilegíveis por Apple.
Detecção CSAM
CSAM se refere a conteúdo que retrata atividades sexualmente explícitas envolvendo uma criança. O iOS e o iPadOS usarão novos aplicativos de criptografia para ajudar a limitar a disseminação do CSAM online.
Avançar, AppleO método de detecção de CSAM conhecido foi desenvolvido com a privacidade do usuário em mente. Em vez de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas) e outras organizações de segurança infantil.
Apple transforma ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários.
A tecnologia de hashing, chamada NeuralHash, analisa uma imagem e a converte em um número único específico para aquela imagem. Somente outra imagem que parece quase idêntica pode produzir o mesmo número; por exemplo, imagens que diferem em tamanho ou qualidade transcodificada ainda terão o mesmo valor NeuralHash.
Se houver uma correspondência entre as fotos de um usuário e o banco de dados CSAM, Apple analisa manualmente cada relatório para confirmar se há uma correspondência, desativa a conta do usuário e envia um relatório ao NCMEC. Se um usuário achar que sua conta foi sinalizada por engano, ele pode entrar com um recurso para que sua conta seja restabelecida.
O limite é definido para fornecer um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta.
Esta nova tecnologia inovadora permite Apple para fornecer informações valiosas e acionáveis ao NCMEC e às autoridades policiais sobre a proliferação de CSAM conhecidos.
Ele faz isso enquanto fornece benefícios de privacidade significativos sobre as técnicas existentes desde Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de CSAM conhecidos em sua conta de Fotos do iCloud. Mesmo nesses casos, Apple aprende apenas sobre as imagens que correspondem ao CSAM conhecido.
Expandindo a orientação no Siri e na pesquisa
Apple também está expandindo a orientação no Siri e na Pesquisa, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras. Por exemplo, os usuários que perguntam ao Siri como eles podem denunciar CSAM ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.
O Siri e a Pesquisa também intervêm quando os usuários tentam pesquisar tópicos relacionados ao CSAM. Essas intervenções irão explicar aos usuários que o interesse neste tópico é prejudicial e problemático e fornecer recursos de parceiros para obter ajuda com esse assunto.
“AppleA proteção ampliada para crianças é uma virada de jogo ”, disse John Clark, presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado.
“Com tantas pessoas usando Apple produtos, essas novas medidas de segurança têm potencial de salvar vidas para crianças que estão sendo atraídas online e cujas imagens horríveis estão sendo divulgadas em material de abuso sexual infantil ”.
AppleA tecnologia da empresa equilibra “a necessidade de privacidade com segurança digital para crianças”, disse Julia Cordua, CEO da Thorn, uma organização sem fins lucrativos que desenvolve tecnologia para combater a exploração sexual infantil.
Todas as atualizações mencionadas acima para o aplicativo Mensagens do iPhone, Siri e Pesquisa serão lançadas ainda este ano em uma atualização para iOS 15, iPadOS 15, watchOS 8e macOS Monterey.