Relação cérebro-máquina: novas interfaces estão sendo criadas
Por: tegUP, aceleradora de startups.
Ex-Machina, Big Hero, Wall-E, Ela, Black Mirror e até Power Rangers, lá atrás nos anos 90. Todos esses filmes e séries tratam de maneiras diferentes a interação entre homens e robôs, das mais românticas às mais práticas, e o tema há décadas é alvo de especulação e de fantasias.
Em Black Mirror, especificamente, há um episódio em que essa interação aparece de duas maneiras: um acidente envolvendo um carro-robô entregador de comida e um humano (interação homem-robô), que acaba desencadeando uma pesquisa da empresa de seguros para solucionar o acidente. Essa empresa utiliza uma máquina que capta a memória das pessoas e permite que outro a assista, com detalhes perfeitos do ponto de vista do observador. Nesse momento, uma outra interação acontece: a cérebro-máquina, em uma comunicação direta da máquina com o cérebro, sem necessidade de movimentos ou de interação humana.
As interfaces cérebro-máquina (também chamadas de ICMs) são conjuntos de sistemas que permitem a comunicação entre cérebros e máquinas, sem o intermédio do sistema neuromuscular. Esse tipo de tecnologia mede atividades cerebrais associadas à intenção do usuário e traduz as atividades cerebrais gravadas para sinais controlados correspondentes. Essa definição, de Bernhard Graimann, publicada em 2010, ainda é atual e complementada pela evolução da tecnologia nesse tempo.
Os usos também são variados e os dispositivos categorizados em diferentes funções:
Repor – que substituem algo que o cérebro controlava e que passa a ser substituído por uma máquina, como as cadeiras de roda guiadas pelo direcionamento do cérebro de quem a usa quando não se pode empurrá-la com as mãos.
Restaurar – usadas para treinar novamente uma função, por exemplo, com dispositivos utilizados na fisioterapia para que cérebro e músculo voltem a fazer os movimentos anteriormente aprendidos.
Aprimorar – quando dispositivos se comunicam com o cérebro humano para melhorar a performance. Por exemplo, carros com direção sensível aos pensamentos dos motoristas que podem entender uma mudança na atividade cerebral que indique que o motorista está prestes a pegar no sono, gerando um movimento que o desperte.
Suplementar – quando homens e robôs podem trabalhar juntos, por exemplo ajudando a fazer duas vezes mais rápido uma ação que uma pessoa está fazendo, seguindo seus movimentos, por exemplo para deslocar objetos ou carregar um caminhão.
Melhorar – com interfaces e seres humanos unidos em prol de uma melhora de performance, como um dispositivo que pode ser acoplado no braço e utilizar as conexões cerebrais para entender mais rápido a intenção de movimento e aplicá-la, seja em uma atividade que demanda mais rapidez ou mais precisão, como robôs usados em cirurgias.
Entre todas essas áreas, os principais estudos nesse tempo foram feitos na área da saúde. Por exemplo, para repor funções que foram perdidas por acidentes ou doenças, como uma pessoa que perdeu a fala e que pode voltar a se comunicar por meio de uma interface que analisa o funcionamento do seu cérebro, transforma em palavras escritas e as lê como os sintetizadores de voz hoje fazem em tantos apps atuais, como Waze e Google Translate.
A complexidade aumenta quando essas interfaces evoluem. No livro Brain-computer Interfaces, por exemplo, os autores Jonathan Wolpaw e Elizabeth Winter Wolpaw explicam que um mesmo pensamento precisa ser lido para gerar diferentes ações. Por exemplo, em um jogo virtual de futebol, em que o cérebro do jogador esteja direcionando os movimentos por meio de um dispositivo: quando ele decide chutar, que chute será esse? Forte, fraco, em que direção, fazendo que movimento e com que intenção?
As interfaces cérebro-máquina estão evoluindo para entenderem além de sinais, os contextos e ambientes em que eles estão inseridos. Por exemplo, ao chutar a bola no jogo virtual de futebol, a interface consegue entender qual o momento do jogo. O avatar pode correr até a bola se ela estiver distante para o chute, pode fazer um passe curto para um jogador próximo ou pode entender pelo contexto que se trata de um chute a gol. Para fazer isso, essas interfaces combinam o comando dos usuários com outras informações relevantes para que possam estar integradas a um ambiente inteligente e a sistemas atentos ao contexto.
E existe ainda um outro tema profundo e extremamente complexo que trata diretamente a mudança na relação homem-máquina, que é a interpretação semântica das emoções, chamada de Emotional Intelligence ou Affective Computing. Se hoje já podemos dominar dispositivos usando apenas a atividade cerebral, imagina quando pudermos controlar emoções nesses dispositivos, com a mesma facilidade?
Nesse processo de machine learning (aprendizagem de máquina), a evolução do conhecimento dos robôs e, consequentemente, da interação com nosso cérebro acontece de maneira bastante rápida e escala muitos degraus de uma só vez, já que uma única pesquisa ou novo dispositivo influencia uma indústria inteira de interfaces inteligentes que podem fazer essa comunicação direta com o cérebro humano.
Com milhares de neurônios sendo estudados simultaneamente e processados em computadores com velocidade de processamento muito maior que a de nosso cérebro, somamos o melhor de dois mundos. Quando mais evoluímos os dispositivos e robôs, mais evoluímos nós mesmos.
Sobre o Autor
A tegUP é uma aceleradora de startups e braço de inovação aberta da Tegma Gestão Logística. A aceleradora apoia startups e empresas de tecnologia transformadoras que ofereçam produtos, serviços e tecnologia relacionados ao universo da Logística, apresentem alto potencial de evolução e necessitem de algum tipo de suporte para acelerar seu crescimento.
www.tegup.com.