Leitura labial por computador pode melhorar aparelhos auditivos

Atualização: 30 de março de 2021
Leitura labial por computador pode melhorar aparelhos auditivos

Além de coletar informações de uma série de sensores para melhorar a inteligibilidade da fala, os sensores embutidos no aparelho auditivo podem estimar o esforço auditivo e seu impacto na pessoa, e usar isso para dizer se o processo de aprimoramento da fala está realmente ajudando ou não, de acordo com para Wolverhampton.

Chamado de 'Aparelhos auditivos multimodais habilitados para 5G-IoT de inspiração cognitiva' (COG-MHEAR), o projeto de quatro anos recebeu £ 3.2 milhões do EPSRC (Conselho de pesquisa em ciências físicas e de engenharia) sob o título 'Tecnologias transformativas de saúde para Esquema de 2050 '.

O processamento em nuvem será usado inicialmente para reduzir o consumo de energia, com interfaces de baixa latência (<10ms) criadas para o link de infraestrutura em nuvem para evitar atrasos entre os dados acústicos e os dados de imagem processados.

Eletrônicos flexíveis e-skin e antenas personalizadas são planejados para manter pequenos os dispositivos usados.

Para resolver os problemas de potência, tamanho e latência, a intenção a longo prazo é fazer todo o processamento localmente, executando algoritmos em hardware dedicado que inclui aceleradores.

“Nossa visão 2050 é ir além do 5G-IoT e da internet, para processamento on-chip semelhante ao cérebro independente da internet para lidar com o tamanho do aparelho auditivo, orçamento de energia, comunicação e questões de segurança cibernética”, disse o vice-diretor do projeto, Ahsan Adeel, da Universidade de Wolverhampton (retratado).

A coleta de informações visuais - vídeos de movimentos labiais, por exemplo - pode introduzir questões de privacidade. “Podemos superar algumas dessas questões criptografando os dados assim que forem coletados e seremos pioneiros em abordagens para o processamento e compreensão dos dados de vídeo enquanto eles permanecem criptografados”, de acordo com a submissão da doação EPSRC. “Nosso objetivo nunca é acessar os dados brutos do vídeo, mas ainda usá-los como uma fonte útil de informações. Para complementar isso, também investigaremos métodos para leitura labial remota sem usar um feed de vídeo, em vez de explorar o uso de sinais de rádio para monitoramento remoto. ”

Junto com a Edinburgh Napier University e a University of Wolverhampton, os parceiros do projeto incluem: University of Edinburgh, University of Glasgow, Heriot-Watt University, University of Manchester, University of Nottingham, Sonova, Nokia Bell-Labs. Alpha Data. Digital Health & Care Institute, The Data Lab e Deaf Scotland e Action on Hearing Loss.