Pesquisadores da IBM Research e da Northeastern University desenvolveram um novo método que usa a conectividade de modo para fortalecer os sistemas de aprendizado profundo e proteger os sistemas contra exemplos adversos.
Hoje, temos empresas que possuem todos os tipos de protocolos de segurança para proteger seus dados e o o de seus funcionários à empresa, mas isso também mudou os truques dos cibercriminosos para violar esses sistemas.
Efeitos colaterais aprimorados graças ao aprendizado profundo
É por isso que os cientistas apresentaram um projeto intitulado 'Conectividade no modo ponte em cenários de perda e resiliência', um trabalho que mostra que técnicas de generalização podem ser usadas para criar sistemas robustos de inteligência artificial (IA). resistente a interferências adversas.
Como parte deste projeto, os pesquisadores estão mostrando como a conectividade no modo de implantação – uma técnica que ajuda a melhorar os recursos de generalização dos modelos de aprendizado profundo – em ataques backdoor adversos que podem oferecer aos sistemas de segurança maior confiabilidade contra qualquer ataque.
Modo de comunicação como opção
Além disso, os pesquisadores mencionam que a conectividade de modo fornece sistema um caminho de aprendizado entre dois modelos, permitindo que o desenvolvedor escolha um waypoint entre os recursos de modelos pré-treinados para manter a precisão.
Um recurso que, de acordo com fonte Isso ajuda a reduzir significativamente os ataques adversos, porque a precisão dos ataques é reduzida assim que o modelo final é afastado do extremo.
Grande progresso em segurança
Pin-Yu Chen, cientista chefe da RPI-IBM AI Research Collaboration e co-autor do artigo, indica que esse novo método chamado "modelo de desinfecção" visa mitigar os efeitos negativos de um determinado modelo (pré-treinado), independentemente de como o ataque possa ocorrer.
Por fim, Chen enfatiza que esse método mostra como a conectividade de modo pode aliviar efeitos adversos durante a fase de treinamento, dando origem a pesquisas futuras que melhorarão a força da rede neural contra esses ataques, mas por inferência.