NVIDIA Jetson Nano pode ler sua mente para que você possa controlar Far Cry 5 e um braço protético com o seu pensamento

NVIDIA Jetson Nano pode ler sua mente para que você possa controlar Far Cry 5 e um braço protético com o seu pensamento 1

Um trabalho inovador que traduz os pensamentos de um amputado em movimentos dos dedos, e até mesmo comandos em videogames, mantém aberta a possibilidade para os humanos controlarem quase tudo digital com suas mentes.

Usando GPUs, um grupo de pesquisadores treinou um decodificador neural AI capaz de funcionar em um sistema em um NVIDIA Jetson Nano Module (SOM) compacto e energeticamente eficiente para traduzir os pensamentos de Shawn Findley, 46, em movimentos individuais dos dedos.

E se essa descoberta não bastasse, a equipe conectou Findley a um PC rodando Far Cry. 5 e Raiden IV, onde ele fez seu avatar no jogo se mover, pular e até mesmo pilotar um helicóptero virtual, usando sua mente.

É uma demonstração que não só promete dar aos amputados um controle mais natural e responsivo sobre suas próteses. Pode um dia dar aos usuários capacidades quase sobre-humanas.

O esforço é detalhado em um documento preliminar, ou pré-impressão, intitulado “Uma mão neuroprotética autônoma e portátil com controle digital baseado em aprendizado profundo”. O documento detalha uma extraordinária colaboração interdisciplinar por trás de um sistema o que, na verdade, permite que os humanos controlem quase qualquer coisa digital com pensamentos.

“A ideia é intuitiva para os jogadores”, disse Anh Tuan Nguyen, principal autor do artigo e agora pesquisador de pós-doutorado na Universidade de Minnesota, orientado pelo professor associado Zhi Yang.

“Em vez de atribuir o nosso sistema para uma mão virtual, apenas mapeamos as teclas pressionadas e, cinco minutos depois, estamos jogando um videogame ”, disse Nguyen, um jogador ávido, que é bacharel em engenharia elétrica e doutor em engenharia biomédica.

Resumindo, Findley, um pastor no leste do Texas que perdeu a mão após um acidente na oficina mecânica 17 anos atrás, foi capaz de usar um decodificador de inteligência artificial treinado em uma GPU NVIDIA TITAN X e implantado no NVIDIA Jetson para traduzir seu tempo real pensamentos em ações dentro de um ambiente virtual rodando, é claro, em outra GPU NVIDIA, explicou Nguyen.

Encontre mais detalhes no seguinte link: https://blogs.nvidia.com/blog/2021/05/24/deep-learning-amputee-prosthetic-hand-video-games/