Uma mulher que não pronunciava uma palavra há anos após um acidente vascular cerebral paralisante recuperou a capacidade de falar através da inteligência artificial.
O procedimento inovador utiliza um conjunto de 253 eletrodos implantados no cérebro de Ann Johnson, 48 anos, que estão ligados a um banco de computadores através de uma pequena porta afixada em sua cabeça.
Os eletrodos, que cobrem a área do cérebro onde a fala é processada, interceptam os sinais cerebrais e os enviam aos computadores, que também exibem o avatar de cabelos castanhos de Johnson na tela do computador.
O avatar na tela – que a própria Johnson escolheu – é então capaz de “falar” o que ela está pensando, usando uma cópia de sua voz gravada anos atrás, durante um brinde de 15 minutos que ela fez em seu casamento.
O avatar também pisca os olhos e usa expressões faciais como sorrisos, lábios franzidos e sobrancelhas levantadas, fazendo com que pareça mais real.
“Estamos apenas tentando restaurar quem as pessoas são”, disse o Dr. Edward Chang, presidente de cirurgia neurológica da Universidade da Califórnia, em São Francisco. disse ao New York Times.
Johnson – uma professora de matemática do ensino médio que também atuava como treinadora de vôlei e basquete em Saskatchewan – era casada há dois anos e tinha dois filhos quando um derrame a deixou paralisada.
“Não poder abraçar e beijar meus filhos doeu muito, mas era a minha realidade”, disse Johnson. “O verdadeiro prego no caixão foi dizer que eu não poderia ter mais filhos.”
Após anos de reabilitação, ela gradualmente recuperou alguns movimentos e expressão facial, mas Johnson permaneceu incapaz de falar e teve que ser alimentada por sonda até que a terapia de deglutição lhe permitisse comer alimentos picados ou macios.
“Minha filha e eu adoramos cupcakes”, disse Johnson.
A equipe da Universidade da Califórnia, em São Francisco, e colegas próximos da Universidade da Califórnia, em Berkeley, disseram que é a primeira vez que a fala ou as expressões faciais são sintetizadas a partir de sinais cerebrais.
Para treinar o sistema de IA, Johnson teve que “repetir” silenciosamente diferentes frases de um vocabulário de 1.024 palavras até que o computador reconhecesse o padrão de atividade cerebral associado a cada som.
Em vez de palavras inteiras, o programa de IA foi ensinado a reconhecer fonemas, as unidades de fala que formam as palavras faladas. “Olá”, por exemplo, contém quatro fonemas: “HH”, “AH”, “L” e “OW”.
Ao reconhecer 39 fonemas, o programa de IA pode decodificar os sinais cerebrais de Johnson em palavras completas a uma taxa de cerca de 80 palavras por minuto – aproximadamente metade da taxa normal de um diálogo entre pessoas.
Sean Metzger, que desenvolveu o decodificador no Programa Conjunto de Bioengenharia da UC Berkeley e UCSF, disse ao South West News Service: “A precisão, velocidade e vocabulário são cruciais.
“É o que dá ao usuário o potencial, com o tempo, de se comunicar quase tão rápido quanto nós e de ter conversas muito mais naturalistas e normais.”
A equipe agora trabalha em uma versão sem fio, o que significa que o usuário não precisará estar fisicamente conectado aos computadores por meio de fios ou cabos.
Chang trabalhou na interface cérebro-computador por mais de uma década e espera que a inovação da equipe leve a um sistema que permita a fala a partir de sinais cerebrais em um futuro próximo.
“Nosso objetivo é restaurar uma forma de comunicação plena e incorporada, que é realmente a maneira mais natural de conversarmos com outras pessoas”, disse Chang ao SWNS.
“Esses avanços nos aproximam muito mais de tornar esta solução uma solução real para os pacientes”, acrescentou Chang.
Discussão sobre isso post