Atualmente, os carros autônomos são uma tecnologia futurista que está se aproximando da nossa realidade; no entanto, uma pequena falha nos sistemas de direção autônoma pode causar acidentes de viação.
Nesse sentido, novas pesquisas mostram que a tecnologia por trás de carros autônomos pode estar vulnerável a impressões falsas, como decalques de tráfego.
Carros autônomos, falhas de reconhecimento
Carros autônomos interpretam seus arredores através do uso de um sistema Eles estão localizados ao redor do veículo e ele usa uma combinação de câmeras, sensores de radar e sensores LiDAR (detecção de luz e alcance).
No entanto, como tudo sistema Isso ainda tem certas falhas e, de acordo com o Grupo de Pesquisa da Universidade de Michigan, a RobustNet sistema A percepção baseada no LiDAR pode ser levada a "ver" obstáculos onde não existem.
Esses sistemas de percepção baseados no LiDAR têm dois componentes essenciais, o sensor e o modelo de aprendizado de máquina. O primeiro oferece uma percepção do ambiente, enquanto o segundo é responsável pelo processamento dos dados do sensor.
Batota sensores LiDAR
Agora o fonte salienta que pode haver um "erro" na leitura do ambiente, especificando e imitando os sinais acionados – tempo de vôo, tempo para transmitir o sinal do sensor ao objeto que está sendo medido – ao sensor LiDAR, algo que também permitiria ao modelo enganar Aprendizado de máquina
Nesse ponto, um trabalho realizado pelo laboratório de pesquisa OpenAI reforça essa teoria e sugere que os modelos de aprendizado de máquina são vulneráveis a exemplos adversos, ou seja, aqueles obstáculos que não são reais, porque, segundo os pesquisadores, esses modelos não avaliam Todos os casos
Para fazer isso, os pesquisadores submeteram os sensores a dois casos, o primeiro deles chamado "ataque de freio de emergência", eles mostraram como um atacante pode parar subitamente um veículo em movimento, fazendo-o acreditar que um obstáculo apareceu em seu caminho.
Explore falhas de segurança
Enquanto no segundo caso, eles geraram um “ataque de congelamento de AV”, ou seja, eles colocaram um obstáculo falso a um veículo parado em um sinal vermelho, algo que fez com que o carro permanecesse parado depois que a luz mudou para verde.
Com esses estudos, os pesquisadores desejam avaliar os problemas de segurança que podem surgir em sistemas de direção autônomos para impedir que hackers e pessoas mal compreendidas exponham essas falhas de segurança no futuro.