Nota: O seguinte artigo irá ajudá-lo com: Como os dados confidenciais de IA podem se tornar mais privados e seguros em 2022
As tecnologias estão disponíveis para proteger melhor os dados usados na inteligência artificial, mas ainda não estão prontas para o horário nobre, diz a Deloitte.
Com os consumidores preocupados com sua privacidade e segurança, garantir que os dados do usuário sejam protegidos deve ser uma prioridade para qualquer organização. Isso já é um desafio suficiente com processos convencionais. Mas jogue inteligência artificial na mistura e os obstáculos se tornam ainda maiores. Novas ferramentas que podem proteger melhor os dados baseados em IA já estão aqui. Embora ainda não sejam práticos, as organizações devem estar cientes de como podem se desenvolver em 2022 e além.
VEJO: Política de ética em inteligência artificial (TechRepublic )
Em um relatório divulgado na quarta-feira, a consultoria Deloitte descreve duas ferramentas que podem tornar as tarefas de IA, como aprendizado de máquina, mais privadas e seguras. Conhecidos como criptografia homomórfica (HE) e aprendizado federado (FL), eles fazem parte de um grupo chamado tecnologias de aprimoramento de privacidade.
O HE permite que os sistemas de aprendizado de máquina usem dados enquanto estão criptografados. Normalmente, esses dados precisam ser descriptografados antes que o sistema possa processá-los, o que os torna vulneráveis a comprometimentos. A FL implanta o aprendizado de máquina em dispositivos locais ou de borda para que os dados não estejam todos em um só lugar onde possam ser violados ou invadidos com mais facilidade. Ambos HE e FL podem ser usados ao mesmo tempo, de acordo com a Deloitte.
As organizações que usam inteligência artificial já estão de olho no HE e FL como forma de proteger melhor seus dados. Uma vantagem é que o uso dessas ferramentas pode satisfazer os reguladores que desejam impor novos requisitos de segurança e privacidade a esses dados. As empresas de nuvem estão interessadas em HE e FL porque seus dados precisam ser enviados de e para a nuvem e processados fora das instalações. Outros setores, como saúde e segurança pública, também estão começando a examinar essas ferramentas em resposta às preocupações com a privacidade.
VEJA: Folha de dicas do Metaverse: Tudo o que você precisa saber (PDF gratuito) (TechRepublic)
Existem alguns obstáculos tecnológicos ao uso de HE e FL. O processamento de dados criptografados com HE é mais lento do que o processamento de dados não criptografados. E para que o FL desempenhe um papel, você precisa de máquinas e dispositivos rápidos e poderosos na borda onde ocorre o aprendizado de máquina real. Nesse caso, um dispositivo de ponta pode ser algo tão simples quanto um smartphone ou um item mais complexo como um equipamento de fábrica, segundo a Deloitte.
Progresso está sendo feito para superar os obstáculos. O Wi-Fi 6 e o 5G trouxeram conectividade mais rápida e confiável para dispositivos de ponta. Graças ao hardware novo e mais rápido, o processamento de dados com HE agora é apenas 20% mais lento do que o processamento de dados não criptografados, enquanto no ado era um trilhão de vezes mais lento, disse a Deloitte. Mesmo os processadores que alimentam o FL estão ficando mais robustos e menos caros, levando a uma implantação mais ampla.
Outro bônus é que 19 grandes players de tecnologia já anunciaram publicamente testes e produtos iniciais para HE e FL. Embora isso pareça um número pequeno, as empresas envolvidas nesses esforços incluem Apple, Google, Microsoft, Nvidia, IBM, enquanto usuários e investidores incluem DARPA, Intel, Oracle e Mastercard.
Embora HE e FL ainda não sejam pragmáticos em termos de custo e desempenho, as organizações que precisam se concentrar na segurança e privacidade dos dados baseados em IA devem estar cientes de seu potencial. Essas ferramentas podem ser de interesse particular para provedores e usuários de nuvem, empresas em setores sensíveis, como saúde e finanças, empresas do setor público que lidam com crime e justiça, empresas que desejam trocar dados com concorrentes, mas ainda mantêm sua propriedade intelectual e diretores de segurança da informação e suas equipes.
Para organizações que desejam investigar HE e FL, a Deloitte oferece as seguintes sugestões:
- Entenda o impacto no seu setor. Que implicações HE e FL podem ter em sua indústria, bem como em indústrias semelhantes? Como uma IA mais segura e privada afetaria sua empresa de forma estratégica e competitiva? Para tentar responder a essas perguntas, monitore o progresso dessas ferramentas para ver como outras empresas estão trabalhando com elas.
- Crie uma estratégia. Até que HE e FL ganhem mais maturidade, sua estratégia existente pode ser não fazer nada sobre eles. Mas você precisa planejar o futuro monitorando os eventos de gatilho que lhe dirão quando é hora de começar seu investimento e análise. E para isso, você precisará de pessoas qualificadas e conhecedoras para ajudá-lo a desenvolver a estratégia certa.
- Acompanhe a evolução da tecnologia. À medida que HE e FL amadurecem, sua estratégia em torno dessas ferramentas deve mudar. Certifique-se de ajustar sua estratégia para que você pegue novos desenvolvimentos antes que eles em por você.
- Traga a segurança cibernética mais cedo ou mais tarde. Ao avaliar HE e FL, certifique-se de incluir a segurança cibernética em sua estratégia desde o início durante o estágio de implantação.
“Tecnologias de privacidade e segurança, incluindo HE e FL, são ferramentas, não panacéias”, disse a Deloitte em seu relatório. “Mas, embora nenhuma ferramenta seja perfeita, HE e FL são adições valiosas à mistura. Ao ajudar a proteger os dados que estão no centro da IA, eles podem expandir a IA para usos cada vez mais poderosos, com a promessa de beneficiar indivíduos, empresas e sociedades.”