Pesquisar
Close this search box.
Pesquisar
Close this search box.
Pesquisar
Close this search box.

[PÚBLICO A SAÚDE] Homem com paralisia severa se comunica com médicos por ondas cerebrais pelo computador. ASSISTA O VÍDEO

Compartilhe Essa notícia

Pesquisadores da UC San Francisco desenvolveram com sucesso uma “neuroprótese de fala” que permitiu a um homem com paralisia severa se comunicar em sentenças – traduzindo sinais de seu cérebro para o trato vocal diretamente em palavras que aparecem como texto em uma tela.

A conquista se baseia em mais de uma década de esforços do neurocirurgião da UCSF, Edward Chang, para desenvolver uma tecnologia que permite que pessoas com paralisia se comuniquem, mesmo que não consigam falar por conta própria.

“Até onde sabemos, esta é a primeira demonstração bem-sucedida de decodificação direta de palavras completas a partir da atividade cerebral de alguém que está paralisado e não pode falar”, disse Chang, que é o autor sênior do estudo. “Ele mostra uma forte promessa de restaurar a comunicação por meio do uso da maquinaria natural da fala do cérebro.”

Traduzindo sinais cerebrais em fala

Anteriormente, o trabalho no campo da neuroprostética de comunicação se concentrava em restaurar a comunicação por meio de abordagens baseadas na ortografia para digitar as letras uma a uma no texto.

O estudo de Chang difere desses esforços de maneira crítica: sua equipe está traduzindo sinais destinados a controlar os músculos do sistema vocal para falar palavras, em vez de sinais para mover o braço ou a mão para permitir a digitação.

Chang disse que essa abordagem explora os aspectos naturais e fluidos da fala e promete uma comunicação mais rápida e orgânica.

“Com a fala, normalmente comunicamos informações em uma taxa muito alta, até 150 ou 200 palavras por minuto”, disse ele, observando que as abordagens baseadas na ortografia usando digitar, escrever e controlar um cursor são consideravelmente mais lentas e trabalhosas. “Ir direto às palavras, como estamos fazendo aqui, tem grandes vantagens porque está mais próximo de como normalmente falamos.”

Na última década, o progresso de Chang em direção a esse objetivo foi facilitado por pacientes do Centro de Epilepsia da UCSF que estavam se submetendo a uma neurocirurgia para identificar as origens de seus ataques usando matrizes de eletrodos colocados na superfície de seus cérebros.

Esses pacientes, todos com fala normal, se ofereceram para ter suas gravações cerebrais analisadas para atividades relacionadas à fala. O sucesso inicial com esses pacientes voluntários pavimentou o caminho para o teste atual em pessoas com paralisia.

Anteriormente, Chang e colegas do UCSF Weill Institute for Neurosciences mapearam os padrões de atividade cortical associados aos movimentos do trato vocal que produzem cada consoante e vogal.

Para traduzir essas descobertas em reconhecimento de fala de palavras completas, David Moses, PhD, um engenheiro de pós-doutorado no laboratório de Chang, desenvolveu novos métodos para decodificação em tempo real desses padrões e modelos estatísticos de linguagem para melhorar a precisão.

Mas o sucesso deles em decodificar a fala em participantes que conseguiam falar não garantia que a tecnologia funcionaria em uma pessoa cujo trato vocal está paralisado. “Nossos modelos precisavam aprender o mapeamento entre padrões complexos de atividade cerebral e a fala pretendida”, disse Moses. “Isso representa um grande desafio quando o participante não consegue falar.”

Além disso, a equipe não sabia se os sinais cerebrais que controlam o trato vocal ainda estariam intactos para pessoas que não são capazes de mover seus músculos vocais há muitos anos. “A melhor maneira de descobrir se isso funcionaria era experimentando”, disse Moses.

As primeiras 50 palavras

Para investigar o potencial dessa tecnologia em pacientes com paralisia, Chang fez parceria com o colega Karunesh Ganguly, professor associado de neurologia, para lançar um estudo conhecido como “BRAVO” (Restauração da Interface Cérebro-Computador de Braço e Voz).

O primeiro participante do estudo é um homem de quase 30 anos que sofreu um derrame cerebral devastador há mais de 15 anos, que danificou gravemente a conexão entre seu cérebro e seu trato vocal e membros.

Desde a lesão, ele teve movimentos extremamente limitados da cabeça, pescoço e membros e se comunica usando um ponteiro preso a um boné de beisebol para inserir letras em uma tela.

O participante, que pediu para ser referido como BRAVO1, trabalhou com os pesquisadores para criar um vocabulário de 50 palavras que a equipe de Chang pudesse reconhecer a partir da atividade cerebral usando algoritmos avançados de computador. O vocabulário – que inclui palavras como “água”, “família” e “bom” – foi suficiente para criar centenas de frases expressando conceitos aplicáveis ​​à vida diária do BRAVO1.

Para o estudo, Chang implantou cirurgicamente um conjunto de eletrodos de alta densidade sobre o córtex motor da fala do BRAVO1. Após a recuperação total do participante, sua equipe registrou 22 horas de atividade neural nesta região do cérebro ao longo de 48 sessões e vários meses. Em cada sessão, BRAVO1 tentou dizer cada uma das 50 palavras do vocabulário muitas vezes enquanto os eletrodos gravavam sinais cerebrais de seu córtex da fala.

Tradução da tentativa de fala em texto

Para traduzir os padrões de atividade neural gravada em palavras pretendidas específicas, os outros dois autores principais do estudo usaram modelos de rede neural personalizados, que são formas de inteligência artificial. Quando o participante tentava falar, essas redes distinguiam padrões sutis na atividade cerebral para detectar tentativas de fala e identificar quais palavras ele estava tentando dizer.

Para testar a abordagem, a equipe primeiro apresentou BRAVO1 com frases curtas construídas a partir de 50 palavras do vocabulário e pediu-lhe que tentasse repeti-las várias vezes. Enquanto ele fazia suas tentativas, as palavras foram decodificadas de sua atividade cerebral, uma a uma, em uma tela.

Em seguida, a equipe passou a fazer perguntas como “Como você está hoje?” e “Quer um pouco de água?” Como antes, a tentativa de discurso de BRAVO1 apareceu na tela. “Estou muito bem” e “Não, não estou com sede”.

A equipe descobriu que o sistema era capaz de decodificar palavras da atividade cerebral a uma taxa de até 18 palavras por minuto com precisão de até 93% (mediana de 75%).

Contribuindo para o sucesso estava um modelo de linguagem que Moses aplicou que implementou uma função de “autocorreção”, semelhante ao que é usado por mensagens de texto de consumidor e software de reconhecimento de voz.

Moses caracterizou os primeiros resultados do teste – que aparecem no New England Journal of Medicine – como uma prova de princípio. “Ficamos emocionados ao ver a decodificação precisa de uma variedade de frases significativas”, disse ele. “Mostramos que é realmente possível facilitar a comunicação desta forma e que há potencial para uso em ambientes de conversação.”

Olhando para o futuro, Chang e Moses disseram que vão expandir o estudo para incluir mais participantes afetados por paralisia severa e déficits de comunicação. A equipe está trabalhando atualmente para aumentar o número de palavras no vocabulário disponível, bem como melhorar a velocidade da fala.

Ambos disseram que, embora o estudo tenha enfocado um único participante e um vocabulário limitado, essas limitações não prejudicam a realização. “Este é um marco tecnológico importante para uma pessoa que não consegue se comunicar naturalmente”, disse Moses, “e demonstra o potencial dessa abordagem para dar voz a pessoas com paralisia severa e perda de fala”.

ASSISTA O VÍDEO: https://youtu.be/_GMcf1fXdW8

Fonte: Good News Network

Foto: Dr. Edward Chang / Barbara Ries, Universidade da Califórnia em São Francisco

Rodrigo Kawasaki

Rodrigo Kawasaki

Editor-chefe da Público A.