Touch screen precisi grazie all'AI

Aggiornamento: 14 maggio 2021

Touch screen precisi grazie all'AI

Touch screen precisi grazie all'AI

Gli scienziati di ETH Computer hanno sviluppato una soluzione AI che consente ai touchscreen di rilevare con una risoluzione otto volte superiore rispetto ai dispositivi attuali.

Mentre i sensori tattili, che rilevano l'input delle dita sul touch screen, non sono cambiati molto da quando sono stati rilasciati per la prima volta a metà degli anni 2000, gli schermi di smartphone e tablet ora forniscono una qualità visiva senza precedenti, il che è ancora più evidente con ogni nuova generazione di dispositivi sia questa è una maggiore fedeltà dei colori, una risoluzione più alta o un contrasto più nitido.

Christian Holz, professore di informatica presso l'ETH del Sensing, Interaction & Perception Lab (SIPLAB), insieme allo studente di dottorato Paul Streli, Holz ha sviluppato un'intelligenza artificiale (AI) chiamata CapContact che è in grado di fornire una super risoluzione dei touch screen in modo che può rilevare in modo affidabile quando e dove le dita toccano effettivamente la superficie del display, con una precisione molto maggiore rispetto ai dispositivi attuali.

L'intelligenza artificiale è stata progettata per touch screen capacitivi, che sono i tipi di touch screen utilizzati nella maggior parte dei telefoni cellulari, tablet e laptop. Qui il file sensore rileva la posizione delle dita dal fatto che il campo elettrico tra le linee del sensore cambia a causa della vicinanza di un dito quando si tocca la superficie dello schermo ma non può effettivamente rilevare il vero contatto.

CapContact utilizza i touch screen come sensori di immagine. Secondo Holz, un touchscreen è essenzialmente una fotocamera di profondità a bassissima risoluzione che può vedere a circa otto millimetri di distanza. Una telecamera di profondità non cattura immagini a colori, ma registra un'immagine di quanto siano vicini gli oggetti. CapContact cerca di sfruttare questo per rilevare con precisione le aree di contatto tra le dita e le superfici attraverso un nuovo algoritmo di apprendimento profondo sviluppato dai ricercatori.

"In primo luogo, 'CapContact' stima le aree di contatto effettive tra le dita e i touchscreen al tocco", ha affermato Holz, "In secondo luogo, genera queste aree di contatto con una risoluzione otto volte superiore agli attuali sensori tattili, consentendo ai nostri dispositivi tattili di rilevare il tocco in modo molto più preciso . "

Per addestrare l'IA, il team ha utilizzato i dati di una moltitudine di tocchi di diversi partecipanti al test, i ricercatori hanno acquisito un set di dati di addestramento, da cui CapContact ha imparato a prevedere le aree di contatto a super risoluzione dai dati dei sensori grossolani e a bassa risoluzione dei dispositivi touch odierni.

I ricercatori sono stati in grado di dimostrare che un terzo degli errori sui dispositivi attuali è dovuto al rilevamento dell'ingresso a bassa risoluzione. CapContact può rimuovere questi errori attraverso l'approccio di apprendimento profondo del ricercatore.

Sono stati anche in grado di dimostrare che CapContact distingue in modo affidabile le superfici tattili anche quando le dita toccano lo schermo molto vicine tra loro. È il caso, ad esempio, del gesto di pizzicare, quando si sposta il pollice e l'indice sullo schermo per ingrandire testi o immagini. I dispositivi di oggi riescono a malapena a distinguere tocchi adiacenti vicini.

Questa ricerca suggerisce che questa soluzione di intelligenza artificiale potrebbe aprire la strada a un nuovo rilevamento tattile nei futuri telefoni cellulari e tablet in grado di funzionare in modo più affidabile e preciso, ma con un ingombro e una complessità ridotti in termini di produzione di sensori.