Tecnologia de IA devolve ‘voz’ a mulher com síndrome de encarceramento pós-AVC

Tecnologia de IA ajuda mulher com síndrome de encarceramento pós-AVC a recuperar a voz.

Compartilhar no Pinterest
Um participante do estudo de neuropróteses de fala do Dr. Edward Chang tenta falar silenciosamente uma frase enquanto o sistema de próteses de fala traduz seus sinais cerebrais em fala sintetizada e movimentos faciais de um avatar na segunda-feira, 22 de maio de 2023, em El Cerrito, Califórnia. Foto por Noah Berger
  • A síndrome do encarceramento é um distúrbio neurológico no qual uma pessoa não consegue falar ou mostrar expressões faciais.
  • A maioria das pessoas com essa condição precisa confiar apenas no piscar de olhos e movimentos para se comunicar com os outros.
  • Pesquisadores da Universidade da Califórnia em San Francisco desenvolveram uma nova maneira para pessoas com síndrome do encarceramento se comunicarem e mostrarem expressões faciais por meio do uso de um implante cerebral e um avatar digital.

A síndrome do encarceramento é um distúrbio neurológico que causa paralisia nos músculos voluntários do rosto, braços e pernas de uma pessoa.

Embora uma pessoa com síndrome do encarceramento possa entender completamente o que alguém está dizendo ou lendo para ela, ela não pode falar ou expressar emoções através do rosto, como felicidade, raiva ou tristeza.

Muitas vezes, uma pessoa com síndrome do encarceramento depende de pequenos movimentos, como piscar, para se comunicar com os outros.

Agora, pesquisadores da Universidade da Califórnia em San Francisco desenvolveram uma nova maneira para pessoas com síndrome do encarceramento se comunicarem e mostrarem expressões faciais por meio do uso de um implante cerebral e um avatar digital.

Este estudo foi publicado recentemente na revista Nature.

O que é a síndrome do encarceramento?

A síndrome do encarceramento é relativamente rara – menos de 1.000 pessoas nos Estados Unidos têm essa condição.

A condição geralmente é causada por danos a uma parte do tronco cerebral chamada pons, resultando em bloqueio da função nervosa que causa paralisia.

Os danos ao tronco cerebral geralmente ocorrem durante um derrame, mas também podem ocorrer devido a inflamação dos nervos, tumores, infecções ou outras condições, como esclerose lateral amiotrófica (ELA).

Quando uma pessoa tem síndrome do encarceramento, ela perde a capacidade de mover seus músculos voluntários à vontade. No entanto, ela não perde nenhuma capacidade cognitiva, então ela é capaz de pensar normalmente e entender quando alguém fala ou lê para ela. E sua audição não é afetada.

No entanto, a síndrome do encarceramento pode afetar a capacidade de uma pessoa de respirar e se alimentar, afetando a mastigação e a deglutição.

Não há cura ou tratamentos específicos atualmente disponíveis para a síndrome do encarceramento. Um médico tratará a causa subjacente da condição e pode prescrever terapias físicas e de fala.

Comunicação com a síndrome do encarceramento

A maneira mais comum para pessoas com síndrome do encarceramento se comunicarem é através de movimentos oculares e piscar de olhos.

Hoje em dia, existem programas de computador e outras tecnologias assistivas que podem ajudá-las a se comunicar com os outros, como interfaces cérebro-computador, dispositivos de controle por movimento da cabeça e sensores de movimento ocular infravermelho.

E graças às inovações na engenharia de computação e novas tecnologias como inteligência artificial (IA), os pesquisadores têm apresentado novas opções de comunicação para pessoas com síndrome do encarceramento.

Por exemplo, um estudo publicado em março de 2022 mostrou que um homem com síndrome do encarceramento foi capaz de se comunicar com sua família por meio do uso de um implante cerebral e uma interface de soletração.

Facilitando a “fala” através da IA

No estudo atual, os pesquisadores desenvolveram uma nova tecnologia cérebro-computador usando um implante cerebral e um avatar digital. O avatar digital permite que uma pessoa com paralisia facial transmita expressões faciais e emoções normais.

A nova tecnologia foi testada em uma mulher de 47 anos chamada Ann, que tem síndrome do encarceramento após um derrame no tronco cerebral.

O Medical News Today conversou com o Dr. David Moses, professor assistente de cirurgia neurológica, membro do Chang Lab na Universidade da Califórnia em San Francisco e um dos co-autores do estudo.

Segundo ele, quando falamos, padrões complexos de atividade neural em nosso córtex motor da fala – a parte do cérebro que coordena nosso trato vocal – são propagados por uma via neural pelo tronco cerebral e eventualmente chegam aos nossos articuladores, como os lábios, língua, laringe e mandíbula.

“Para Ann e outras pessoas que sofreram um derrame no tronco cerebral, essa via está danificada e os sinais do córtex motor da fala não conseguem alcançar os músculos articuladores”, explicou ele.

Com esse implante cerebral, o Dr. Moses disse que os especialistas conseguem registrar a atividade neural do córtex enquanto Ann tenta falar, e traduzem diretamente essas atividades em palavras pretendidas, contornando completamente a paralisia dela.

Ele explicou ainda como isso funciona:

“Fazemos isso criando primeiro modelos de IA treinados em dados neurais enquanto ela tenta silenciosamente dizer muitas frases – ela na verdade não vocaliza enquanto tenta dizer isso; ela faz o melhor para ‘mover’ as palavras nas frases. Ao permitir que os modelos de IA aprendam o mapeamento entre a atividade cerebral e a fala pretendida, podemos então usar esses modelos em tempo real para decodificar a atividade cerebral em fala. Os modelos usam representações intermediárias flexíveis da fala internamente, o que permite que o decodificador produza frases que ela não tentou dizer durante o treinamento.”

Dando uma ‘voz’ a Ann

Ann recebeu um implante cerebral com 253 eletrodos colocados em áreas específicas do cérebro críticas para a fala. Um cabo conecta o implante cerebral a computadores.

Por semanas, Ann trabalhou com pesquisadores para treinar algoritmos de inteligência artificial a reconhecer e responder aos sinais únicos do seu cérebro para a fala.

Os pesquisadores também criaram um avatar digital de Ann por meio de um software que simula e anima os movimentos dos músculos faciais.

Usando aprendizado de máquina, eles conseguiram mesclar o software com os sinais provenientes do cérebro de Ann e convertê-los em movimentos no rosto do seu avatar, mostrando tanto a fala quanto as expressões faciais.

Além disso, os cientistas foram capazes de usar imagens de vídeo anteriores ao ferimento para recriar a voz real de Ann. Dessa forma, quando ela fala por meio do avatar digital, é a sua própria voz e não uma voz computadorizada padrão.

Próximos passos na pesquisa

Quando questionado sobre os próximos passos dessa nova tecnologia, o Dr. Moses disse que há muitas possibilidades de melhoria.

“Para o hardware, é necessário uma versão sem fio para aprimorar a viabilidade como solução clínica”, observou ele.

“Em termos de software, queremos integrar nossas abordagens aos dispositivos existentes dela, para que ela possa usar o sistema para escrever emails e navegar na web. Também queremos aproveitar alguns avanços em modelagem de IA generativa para melhorar nossas saídas de decodificação”, acrescentou o Dr. Moses.

Resolvendo um problema difícil

A MNT também conversou sobre esse estudo com o Dr. Amit Kochhar, um especialista em otorrinolaringologia, cirurgia de cabeça e pescoço e cirurgia plástica e reconstrutiva facial, e diretor do Programa de Distúrbios do Nervo Facial no Pacific Neuroscience Institute em Santa Monica, CA, que não esteve envolvido na pesquisa.

Como médico que trata pacientes com paralisia facial, ele disse que uma das coisas mais difíceis para os pacientes é a incapacidade de expressar suas emoções para os outros.

“Pesquisas mostraram que se um observador leigo olhar para alguém com metade do rosto paralisado, eles não conseguem distinguir se a pessoa está transmitindo uma emoção feliz ou uma emoção de raiva”, explicou o Dr. Kochhar. “E assim há muita confusão por parte do observador e, obviamente, frustração por parte do paciente.”

“E então, se eles tivessem acesso a algo assim, […] eles ainda poderiam se comunicar com outras pessoas, como familiares e amigos, usando esse tipo de tecnologia de avatar, para que pudessem transmitir corretamente as emoções de felicidade, surpresa ou raiva, sem causar confusão”, ele acrescentou.

O Dr. Kochhar disse que gostaria de ver essa tecnologia sendo utilizada por mais pessoas para garantir que seja reproduzível e assegurar que seja economicamente viável.

“Se o custo desse dispositivo for alto e estiver disponível apenas para uma pequena porcentagem da população que pode pagar, é um grande avanço, mas isso não vai ajudar muitas outras pessoas”, ele acrescentou.

O Dr. Kochhar também disse que gostaria de ver essa tecnologia sendo tornada portátil: “A paciente precisava ir ao centro para que funcionasse – ela não podia, neste momento, levá-lo com ela para usar em casa. E assim esses são os próximos passos da evolução desse tipo de software.”