La lettura delle labbra al computer potrebbe migliorare gli apparecchi acustici

Aggiornamento: 30 marzo 2021
La lettura delle labbra al computer potrebbe migliorare gli apparecchi acustici

Oltre a raccogliere informazioni da una gamma di sensori per migliorare l'intelligibilità del parlato, i sensori incorporati nell'apparecchio acustico potrebbero stimare lo sforzo di ascolto e il suo impatto sulla persona e utilizzarli per capire se il processo di miglioramento del linguaggio sta effettivamente aiutando o meno a Wolverhampton.

Denominato `` apparecchi acustici multimodali abilitati 5G-IoT di ispirazione cognitiva '' (COG-MHEAR), il progetto quadriennale aveva ricevuto 3.2 milioni di sterline dall'EPSRC (Consiglio di ricerca in ingegneria e scienze fisiche) nell'ambito delle `` Tecnologie sanitarie trasformative per Schema 2050 '.

L'elaborazione del cloud verrà utilizzata inizialmente per ridurre il consumo energetico, con interfacce a bassa latenza (<10 ms) create per il collegamento dell'infrastruttura cloud per evitare ritardi tra i dati acustici e i dati dell'immagine elaborata.

L'elettronica e-skin flessibile e le antenne personalizzate sono progettate per mantenere piccoli i dispositivi indossati.

Per risolvere i problemi di alimentazione, dimensioni e latenza, l'intenzione a lungo termine è quella di eseguire tutte le elaborazioni localmente, eseguendo algoritmi su hardware dedicato che include acceleratori.

"La nostra visione per il 2050 è quella di andare oltre il 5G-IoT e Internet, per l'elaborazione su chip simile a un cervello indipendente da Internet per affrontare le dimensioni degli apparecchi acustici, il budget energetico, la comunicazione e le questioni di sicurezza informatica", ha affermato il vicedirettore del progetto Ahsan Adeel dell'Università di Wolverhampton (nella foto).

La raccolta di informazioni visive, ad esempio video sul movimento delle labbra, potrebbe introdurre problemi di privacy. "Possiamo superare alcune di queste domande crittografando i dati non appena vengono raccolti, e faremo da pionieri approcci per l'elaborazione e la comprensione dei dati video mentre rimangono crittografati", secondo la richiesta di finanziamento EPSRC. “Puntiamo a non accedere mai ai dati video grezzi, ma a utilizzarli comunque come un'utile fonte di informazioni. Per completare questo, studieremo anche metodi per la lettura labiale remota senza utilizzare un feed video, esplorando invece l'uso di segnali radio per il monitoraggio remoto ".

Insieme all'Università Napier di Edimburgo e all'Università di Wolverhampton, i partner del progetto includono: Università di Edimburgo, Università di Glasgow, Università Heriot-Watt, Università di Manchester, Università di Nottingham, Sonova, Nokia Bell-Labs. Alpha Data. Digital Health & Care Institute, The Data Lab e Deaf Scotland e Action on Hearing Loss.