Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

▷ Apple concordou em não verificar suas fotos. Tchau

Apple concordou em não verificar suas fotos. Tchau

Estamos cobrindo ativamente o tópico do novo algoritmo Apple para processar fotos pessoais. Durante esse tempo, muitas coisas interessantes aconteceram: desde o anúncio dessa função até as desculpas de Craig Federighi e o lançamento de um FAQ completo do Apple, em que todas as nuances desta tecnologia foram pintadas. Em geral, o que não estava lá. Esperou: Apple abandonou a funcionalidade de pesquisa de pornografia infantil em suas fotos, atrasando o lançamento. Parece que os usuários comuns conquistaram uma pequena vitória na batalha pela privacidade de dados. Contaremos o que aconteceu e se o bom senso realmente venceu.

Por que Apple verificar foto

Ocorreu o primeiro anúncio de um novo algoritmo de busca de materiais de abuso sexual infantil, denominado CSAM (Child Sexual Abuse Material) 5 Agosto de 2021, causando uma forte reação online. As funções incluíam a busca de imagens de abuso sexual infantil usando um algoritmo especial. O algoritmo também é capaz de bloquear mensagens potencialmente inapropriadas enviadas para o iMessage.

Posteriormente, a empresa esclareceu que a atualização afetaria apenas as fotos enviadas para o iCloud por suspeitos neste ato. A empresa negou que o conteúdo encontrado esteja disponível para ela, o Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) ou a polícia.

Apple recusou-se a verificar a foto. É por isso

A empresa esclareceu que decidiu pausar o lançamento desse recurso e adiar a implementação do novo algoritmo depois de muitas análises negativas de usuários. Apple afirma que pretende dedicar mais tempo ao desenvolvimento e consultas sobre a introdução de um novo algoritmo. Apesar das alegações iniciais de que a tecnologia é altamente precisa, a empresa planeja refiná-la e coletar mais informações para fazer melhorias.

Isso se deve ao fato de que para não irritar os usuários e nem torná-los suspeitos – a nova função deve ajudar a proteger as crianças e protegê-las do perigo, e não mandar usuários inocentes para a cadeia. A empresa não especifica a data exata de quanto tempo a implementação do algoritmo será atrasada, mas afirma que irá melhorá-la “nos próximos meses”. Este é o movimento certo, porque não estamos falando sobre uma atualização comum do iOS, mas sobre a liberdade das pessoas – você não conseguirá sair por aqui lançando uma atualização.

Além disso, não há uma descrição detalhada de como a empresa planeja “consultar” e com quem coletar informações – talvez isso já afete de alguma forma os dados pessoais dos usuários. Você pode adivinhar por um tempo incrivelmente longo, e somente a empresa tem a resposta exata. O que você pensa sobre isso? Escreva-nos no chat do Telegram, vamos discutir.

Quão Apple respondeu às críticas do CSAM

A indignação do usuário e o clamor público generalizado jogaram a seu favor: especialistas na área de segurança da informação falaram e até o próprio Edward Snowden, que ligou Apple parar e não implementar a função. Isso é correto, porque onde quer que haja uma busca por conteúdo infantil proibido, quase há espionagem de usuários. A empresa anunciou uma inovação, tentando fazer algo bom, mas só ou a explicar o princípio de seu funcionamento depois de algum tempo, divulgando comunicados de imprensa e artigos inteiros explicativos sobre o assunto.

Apesar das reclamações, Craig Federighi tentei acalmar a todosexplicando pessoalmente o princípio do novo mecanismo de processamento de fotos. Ele chamou de confusão toda a negatividade que atingiu a empresa com o anúncio de inovações e disse que os usuários interpretaram mal as intenções da empresa.

Gostaríamos de deixar isso mais claro para todos, porque somos muito positivos e decisivos sobre o que fazemos e vemos, mas isso é mal interpretado ”, disse Craig Federighi.

Apple vai verificar a foto. Por que isso é ruim

A empresa se orgulha dos sistemas de segurança que atualiza e melhora a cada ano. Você escaneia seu rosto com o Face ID ou a o dedo para desbloquear o iPhone com o Touch ID. Isso protege o dispositivo de malfeitores. De repente, o fabricante está adicionando um recurso que é capaz de rastejar perfeitamente em seu dispositivo e armazenamento em nuvem para encontrar algum conteúdo que considera impróprio. O que ela vai fazer com ele?

É difícil de entender, pois o mecanismo, segundo a empresa, funcionará com muita precisão, mas nenhum Apple, sem polícia, sem organizações de direitos humanos. Onde está a garantia de que o algoritmo não roubará dados ou fotos pessoais dos usuários? Como sempre, não há garantias. Além disso, isso viola o direito dos usuários à privacidade dos dados pessoais – é claro que é tolice esperar por isso em 2021, mas simplesmente não vale a pena ser tão atrevido.

A empresa já tem o aos dados do usuário – alguns dos dados são criptografados para proteção contra hacking, mas a pedido das autoridades Apple facilmente decifrá-los, porque as empresas não precisam de problemas com a lei e uma proibição de atividades. O algoritmo CSAM é uma boa tentativa de fugir da espionagem dos usuários, só que ninguém precisa ou gosta dele. As pessoas compram smartphones caros Apple e usar os serviços de uma empresa que afirma que a privacidade é seu ponto forte. Acontece que é exatamente o oposto. Estamos ansiosos para continuar nesta história.