Estamos cobrindo ativamente o tópico do novo algoritmo Apple para processar fotos pessoais. Durante esse tempo, muitas coisas interessantes aconteceram: desde o anúncio dessa função até as desculpas de Craig Federighi e o lançamento de um FAQ completo do Apple, em que todas as nuances desta tecnologia foram pintadas. Em geral, o que não estava lá. Esperou: Apple abandonou a funcionalidade de pesquisa de pornografia infantil em suas fotos, atrasando o lançamento. Parece que os usuários comuns conquistaram uma pequena vitória na batalha pela privacidade de dados. Contaremos o que aconteceu e se o bom senso realmente venceu.
Por que Apple verificar foto
Ocorreu o primeiro anúncio de um novo algoritmo de busca de materiais de abuso sexual infantil, denominado CSAM (Child Sexual Abuse Material) 5 Agosto de 2021, causando uma forte reação online. As funções incluíam a busca de imagens de abuso sexual infantil usando um algoritmo especial. O algoritmo também é capaz de bloquear mensagens potencialmente inapropriadas enviadas para o iMessage.
Posteriormente, a empresa esclareceu que a atualização afetaria apenas as fotos enviadas para o iCloud por suspeitos neste ato. A empresa negou que o conteúdo encontrado esteja disponível para ela, o Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) ou a polícia.
Apple recusou-se a verificar a foto. É por isso
A empresa esclareceu que decidiu pausar o lançamento desse recurso e adiar a implementação do novo algoritmo depois de muitas análises negativas de usuários. Apple afirma que pretende dedicar mais tempo ao desenvolvimento e consultas sobre a introdução de um novo algoritmo. Apesar das alegações iniciais de que a tecnologia é altamente precisa, a empresa planeja refiná-la e coletar mais informações para fazer melhorias.
Isso se deve ao fato de que para não irritar os usuários e nem torná-los suspeitos – a nova função deve ajudar a proteger as crianças e protegê-las do perigo, e não mandar usuários inocentes para a cadeia. A empresa não especifica a data exata de quanto tempo a implementação do algoritmo será atrasada, mas afirma que irá melhorá-la “nos próximos meses”. Este é o movimento certo, porque não estamos falando sobre uma atualização comum do iOS, mas sobre a liberdade das pessoas – você não conseguirá sair por aqui lançando uma atualização.
Além disso, não há uma descrição detalhada de como a empresa planeja “consultar” e com quem coletar informações – talvez isso já afete de alguma forma os dados pessoais dos usuários. Você pode adivinhar por um tempo incrivelmente longo, e somente a empresa tem a resposta exata. O que você pensa sobre isso? Escreva-nos no chat do Telegram, vamos discutir.
Quão Apple respondeu às críticas do CSAM
A indignação do usuário e o clamor público generalizado jogaram a seu favor: especialistas na área de segurança da informação falaram e até o próprio Edward Snowden, que ligou Apple parar e não implementar a função. Isso é correto, porque onde quer que haja uma busca por conteúdo infantil proibido, quase há espionagem de usuários. A empresa anunciou uma inovação, tentando fazer algo bom, mas só ou a explicar o princípio de seu funcionamento depois de algum tempo, divulgando comunicados de imprensa e artigos inteiros explicativos sobre o assunto.
Apesar das reclamações, Craig Federighi tentei acalmar a todosexplicando pessoalmente o princípio do novo mecanismo de processamento de fotos. Ele chamou de confusão toda a negatividade que atingiu a empresa com o anúncio de inovações e disse que os usuários interpretaram mal as intenções da empresa.
Gostaríamos de deixar isso mais claro para todos, porque somos muito positivos e decisivos sobre o que fazemos e vemos, mas isso é mal interpretado ”, disse Craig Federighi.
Apple vai verificar a foto. Por que isso é ruim
A empresa se orgulha dos sistemas de segurança que atualiza e melhora a cada ano. Você escaneia seu rosto com o Face ID ou a o dedo para desbloquear o iPhone com o Touch ID. Isso protege o dispositivo de malfeitores. De repente, o fabricante está adicionando um recurso que é capaz de rastejar perfeitamente em seu dispositivo e armazenamento em nuvem para encontrar algum conteúdo que considera impróprio. O que ela vai fazer com ele?
É difícil de entender, pois o mecanismo, segundo a empresa, funcionará com muita precisão, mas nenhum Apple, sem polícia, sem organizações de direitos humanos. Onde está a garantia de que o algoritmo não roubará dados ou fotos pessoais dos usuários? Como sempre, não há garantias. Além disso, isso viola o direito dos usuários à privacidade dos dados pessoais – é claro que é tolice esperar por isso em 2021, mas simplesmente não vale a pena ser tão atrevido.
A empresa já tem o aos dados do usuário – alguns dos dados são criptografados para proteção contra hacking, mas a pedido das autoridades Apple facilmente decifrá-los, porque as empresas não precisam de problemas com a lei e uma proibição de atividades. O algoritmo CSAM é uma boa tentativa de fugir da espionagem dos usuários, só que ninguém precisa ou gosta dele. As pessoas compram smartphones caros Apple e usar os serviços de uma empresa que afirma que a privacidade é seu ponto forte. Acontece que é exatamente o oposto. Estamos ansiosos para continuar nesta história.