Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not your credentials, you should your web host.

Connection Type

▷ Backdoors adversos testados para melhorar a imunidade de modelos de aprendizado profundo

Backdoors adversos testados para melhorar a imunidade de modelos de aprendizado profundo

Pesquisadores da IBM Research e da Northeastern University desenvolveram um novo método que usa a conectividade de modo para fortalecer os sistemas de aprendizado profundo e proteger os sistemas contra exemplos adversos.

Hoje, temos empresas que possuem todos os tipos de protocolos de segurança para proteger seus dados e o o de seus funcionários à empresa, mas isso também mudou os truques dos cibercriminosos para violar esses sistemas.

Efeitos colaterais aprimorados graças ao aprendizado profundo

É por isso que os cientistas apresentaram um projeto intitulado 'Conectividade no modo ponte em cenários de perda e resiliência', um trabalho que mostra que técnicas de generalização podem ser usadas para criar sistemas robustos de inteligência artificial (IA). resistente a interferências adversas.

Como parte deste projeto, os pesquisadores estão mostrando como a conectividade no modo de implantação – uma técnica que ajuda a melhorar os recursos de generalização dos modelos de aprendizado profundo – em ataques backdoor adversos que podem oferecer aos sistemas de segurança maior confiabilidade contra qualquer ataque.

Modo de comunicação como opção

Além disso, os pesquisadores mencionam que a conectividade de modo fornece sistema um caminho de aprendizado entre dois modelos, permitindo que o desenvolvedor escolha um waypoint entre os recursos de modelos pré-treinados para manter a precisão.

Um recurso que, de acordo com fonte Isso ajuda a reduzir significativamente os ataques adversos, porque a precisão dos ataques é reduzida assim que o modelo final é afastado do extremo.

Grande progresso em segurança

Pin-Yu Chen, cientista chefe da RPI-IBM AI Research Collaboration e co-autor do artigo, indica que esse novo método chamado "modelo de desinfecção" visa mitigar os efeitos negativos de um determinado modelo (pré-treinado), independentemente de como o ataque possa ocorrer.

Por fim, Chen enfatiza que esse método mostra como a conectividade de modo pode aliviar efeitos adversos durante a fase de treinamento, dando origem a pesquisas futuras que melhorarão a força da rede neural contra esses ataques, mas por inferência.

Table of Contents