O desafio de desenvolver próteses motoras mais eficientes, capazes não apenas de obedecer aos comandos do corpo, como também captar informações sensoriais externas, está mais próximo de ser vencido. Um sistema criado por um pesquisador brasileiro permitiu que macacos movimentassem um braço virtual apenas com o pensamento e, após tocarem objetos mostrados na tela de um computador, distinguissem as diferentes texturas associadas a eles.
O feito foi descrito em artigo publicado esta semana no site da revista Nature pela equipe do neurocientista brasileiro Miguel Nicolelis, professor da Universidade Duke, nos Estados Unidos. Nicolelis trabalha há anos em um projeto – chamado Walk Again (em português, ‘Andar novamente’) – para o desenvolvimento de uma espécie de veste robótica que permitiria a pacientes tetraplégicos recuperar seus movimentos e já obteve outros resultados relevantes.
Até hoje, os sistemas que fazem a comunicação direta da atividade cerebral com dispositivos externos (chamados de interfaces cérebro-máquina) eram uma via de mão única. Ainda não era possível devolver ao cérebro informações como as obtidas pelo tato. Essas interfaces dependiam quase exclusivamente de um feedback visual.
O novo sistema – agora denominado interface cérebro-máquina-cérebro – extrai movimentos de comando das áreas motoras do cérebro ao mesmo tempo em que leva para áreas envolvidas na percepção do toque informações que permitem distinguir sensações. Para obter essa comunicação bidirecional, os pesquisadores implantaram microfios em duas áreas do cérebro de dois macacos: o córtex motor primário e o córtex somatossensorial primário.
Em uma primeira etapa, os macacos foram treinados a manipular, por meio de um joystick, um cursor de computador ou um braço virtual de forma a alcançar até três objetos dispostos na tela para identificar um deles – previamente definido –, o que lhes garantiria uma recompensa. Em seguida, o joystick foi desconectado e a manipulação passou a ser feita diretamente pela atividade dos neurônios do córtex motor.
Texturas artificiais
Os objetos, visualmente idênticos, eram diferenciados apenas pelo que os pesquisadores chamaram de texturas artificiais. A percepção de cada textura era gerada por um padrão específico de pulsos elétricos – ou a ausência deles –, transmitido ao córtex somatossensorial sempre que os macacos passavam o braço virtual sobre um dos objetos.
A recompensa era dada quando os animais mantinham o cursor ou braço virtual sobre o objeto correto por um tempo determinado (entre 0,8 e 1,3 segundos, quando manipulavam o joystick, e entre 0,3 e 0,5 segundos, quando o controle era feito pelo cérebro).
Veja o vídeo que mostra testes com o braço virtual controlado pelo cérebro
Segundo os pesquisadores, o tempo total gasto na exploração de um único objeto indica que os macacos distinguiam cada textura artificial. Eles contam que o desempenho da interface melhorou ao longo do treinamento e os animais passaram a gastar menos tempo na manipulação de objetos com texturas que não mereceriam recompensa.
“Os macacos exploram objetos com a mão virtual e adquirem um sexto sentido”, resume Nicolelis em sua página no Twitter.
A equipe observou ainda que a atividade dos neurônios do córtex motor representava os movimentos do cursor ou do braço virtual mesmo quando esses dispositivos estavam apenas sendo observados pelos macacos. Esses resultados, segundo os cientistas, apoiam sua ideia de que uma prótese de um membro pode ser incorporada ao circuito cerebral.
Os pesquisadores acreditam que, no futuro, o uso dessas interfaces de comunicação bidirecional pode não se limitar a próteses de membros e incluir uma série de outros dispositivos. “As interfaces cérebro-máquina-cérebro podem efetivamente liberar o cérebro das restrições físicas do corpo”, avaliam no artigo.
Thaís Fernandes
Ciência Hoje On-line