Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

▷ O que Apple faz com quem encontra fotos de pornografia infantil

O que Apple faz com quem encontra fotos de pornografia infantil

Um oncologista americano foi acusado de armazenar pornografia infantil no iCloud. Especialistas confirmaram oficialmente que cerca de duas mil fotos e vídeos na conta do acusado se qualificam dessa forma. As agências de aplicação da lei estão envolvidas no médico, as consequências para ele serão terríveis. Mas como eles poderiam descobrir isso? Afinal, a digitalização de fotos no iCloud começará apenas no outono, e somente se Apple não adiará seu lançamento para uma data posterior. Fomos enganados? Mas e se a atração pela própria honestidade inédita fosse apenas uma tentativa de evitar um escândalo?

Um oncologista chamou a atenção da polícia quando postou um dos arquivos de pornografia infantil de sua coleção em uma rede social. A busca na conta do arguido foi efectuada em estrita conformidade com a lei. Os especialistas examinaram “manualmente” a biblioteca de fotos e vídeos do suspeito. Pelo contrário, até agora o iCloud permaneceu, de acordo com Eric Friedman, diretor Apple anti-fraude, “a maior plataforma de distribuição de pornografia infantil”. Friedman relatou isso em um dos bate-papos internos. Apple, em 2020. O texto deste chat, marcado “apenas para juiz”, foi anexado aos documentos em Epic Games v. Apple…

E como Eric Friedman poderia saber sobre isso, se Apple não digitalizou os dados do usuário? O próprio Eric Friedman foi questionado sobre isso. Ele disse que suas palavras foram tiradas do contexto. Ele disse isso não sobre o iCloud, mas sobre o iMessage. Ele também disse que Facebook lida melhor com esta desgraça, porque ao contrário Facebook no Apple a proteção da privacidade é uma prioridade. A frase sobre “a maior plataforma” era um exagero emocional, bastante aceitável quando se discutia questões de trabalho em um círculo estreito.

Apple verifica fotos no iPhone

Pela segunda vez em seus 45 anos de história Apple itiu publicamente algo que em nenhum caso deveria ter sido itido. No verão de 1996, a empresa anunciou que não era capaz de desenvolver um sistema operacional moderno. Se não fosse pelas medidas não padronizadas, às vezes não inteiramente legais, tomadas por Steve Jobs no verão de 1997, já no outono daquele ano Apple deixaria de existir. A segunda vez que ela fez isso foi em agosto de 2021. Declarar abertamente que examinará fotos hospedadas no iCloud em busca de pornografia infantil. Como isso vai acabar desta vez é uma questão. Já existem problemas. Explore os dados do usuário Apple será com o mínimo de comprometimento da privacidade. Com uma probabilidade extremamente baixa de um alarme falso.

Para que um usuário seja pego em posse ilegal de fotos e vídeos com pornografia infantil, “cerca de 30” arquivos de pornografia devem ser encontrados em sua conta. Nesse caso Apple entregará seu cliente à justiça. A probabilidade de uma acusação falsa é de um em 30 trilhões. Isso é uma violação da Constituição dos EUA? Mas foi violado por muito tempo Facebook, Microsoft e todos os outros provedores de serviços em nuvem. Eles não relatam, mas nem mesmo tentam esconder. Apple não podia ficar indiferente ao combate ao abuso infantil. Além disso, como recentemente ficou claro, em alguns aspectos já se desviou de seus princípios. O ICloud Mail verifica as mensagens de e-mail desde 2019 em busca de pornografia infantil. As contas dos infratores são bloqueadas. O iCloud Mail não é o lugar para tais discussões. Algoritmos para detectar pornografia infantil não são um remake. Esta é uma tecnologia comprovada.

É perigoso verificar as fotos

Em um artigo publicado no Washington Post, dois pesquisadores da Universidade de Princeton alertaram Apple de cometer um erro. O professor associado Jonathan Mayer e o estudante de graduação Anunai Kulshresta, há dois anos, criaram um sistema semelhante ao descrito por Apple… O sistema é extremamente vulnerável, perigoso para a confidencialidade dos dados do usuário e para sua segurança. Porque é muito fácil reaproveitá-lo para detectar quaisquer outros dados e transformá-lo em uma ferramenta de vigilância eficaz para governos autoritários. Além disso, cientistas da Universidade de Princeton aprenderam por experiência própria que falsos positivos são frequentes em tais sistemas e que são extremamente vulneráveis ​​a intrusos.

Usuários inocentes vão se machucar Apple deveria parar. Na verdade, não é esse o caso. Sistemas de detecção Apple e a Universidade de Princeton estão longe de ser idênticas. Sistema Apple bem protegido e totalmente controlado Apple… Os hash são obtidos de várias organizações que garantem a segurança de crianças em diferentes jurisdições. Além disso, na fase final de verificação, os resultados são verificados por humanos. Converter este sistema para qualquer outra área de atividade Apple não vai permitir. Craig não falou sobre isso, então ainda era um mistério Applemas agora todos sabem disso: os algoritmos do sistema de detecção de pornografia infantil foram explorados há dois anos. Eles foram operados com sucesso.