10/11/2017 di Redazione

L'iPhone potrà imparare il linguaggio dei gesti con il 3D tracking

L'ufficio brevetti statunitense ha riconosciuto a Apple l'esclusiva di una tecnologia di tracciamento tridimensionale dello spazio e dei movimenti della mano. Si potrà usare per scrivere o disegnare con lo smartphone, senza nemmeno toccare lo schermo.

Dopo il pin e le password, dopo la lettura dell'impronta digitale e dopo il riconoscimento facciale introdotto per la prima volta sull'iPhone X con il Face ID, la prossima abilità dei melafonini potrà forse essere la comprensione del linguaggio dei gesti. Fra i 36 nuovi brevetti appena riconosciuti a Apple dallo Us Patent and Trademark Office (e svelati dal sito Patently Apple) ce n'è uno che riguarda l'utilizzo della videocamera del telefono per riconoscere movimenti delle mani codificati – gesti, appunto – e tradurli in comandi di input. Questa tecnologia di tracciamento 3D potrà essere sfruttata, per esempio, per disegnare o scrivere a “mano libera” su applicazioni mobili per smartphone o tablet, e per farlo senza dover nemmeno toccare lo schermo del dispositivo.

Il metodo descritto nel documento registrato all'ufficio brevetti prevede come ingrediente hardware una fotocamera come la True Depth Camera già introdotta sull'iPhone X, ovvero capace di percepire lo spazio a tre dimensioni e di riconoscere un'ampia gamma di espressioni facciali. Oggi, sul nuovo iPhone top di gamma, questa tecnologia può essere impiegata per il riconoscimento biometrico (ha, infatti, sostituito il Touch ID) ma anche per tradurre il risultato del tracciamento facciale in immagini computerizzate (per esempio, trasformando il volto di una persona in una emoji animata).

Il sistema brevettato ora progetta invece di impiegare questo genere di hardware in combinazione con software che creano delle “mappe di profondità”, le quali diventano la base di nuove modalità di interazione fra l'utente e il dispositivo. Ogni mappatura 3D segmenta la scena in modo da poter determinare in quale punto o area sia posizionato un oggetto (per esempio, una mano) e come tale oggetto si muova; a seconda della posizione e dei movimenti, il software può riconoscere un certo gesto e tradurlo in un comando valido all'interno di un'applicazione. Apple sta pensando ovviamente ai futuri iPhone ma, come specificato nel documento, tale metodo può anche essere integrato all'interno di tablet, videocamere, lettori musicali, monitor, computer da scrivania e portatili.

 

 

 

L'obiettivo, in tutti casi, sarà quello di rendere più fluida ed evoluta l'interazione con i dispositivi, superando le vecchie interfacce e metodi di input. Una nota a margine del documento di brevetto spiega che “nel campo dell'interazione uomo/macchina, come per esempio nello studio delle interfacce fra persone e computer, comprendere le intenzioni e i desideri dell'utente che interagisce è una questione molto importante. Quando gestite correttamente, le interazioni uomo/macchina possono essere user-friendly, per esempio attraverso metodi di input multimodali, come voce, touch, gestualità, interfacce grafiche e periferiche di input quali tastiere, mouse e pennini stylus”.

 

ARTICOLI CORRELATI