Powstał asystent głosowy, który nie słucha użytkownika, ale go obserwuje

Fot: PAP John G. Mabanglo
podpis źródła zdjęcia

Do tej pory asystenci głosowi, np. Siri czy Google, tylko wsłuchiwali się w komendy właściciela smartfonu czy głośnika. Nowy system poleceń już nie potrzebuje komend głosowych. On się "wpatruje" w użytkownika i odczytuje jego zamiary.

Badacze z Human-Computer Interaction Institute w uczelni Carnegie Mellon University stworzyli prototypowy inteligentny system, który wykorzystuje jednocześnie przednią i tylną kamerę smartfonu, by określić, na co w danej chwili patrzy jego użytkownik.

Użytkownik urządzenia nie będzie musiał już wypowiadać poleceń, np. włącz zmywarkę. Wystarczy, że na nią spojrzy. Musi jednak przekręcić głowę w jej kierunku, bo sztuczna inteligencja jeszcze nie czyta spojrzeń z ukosa, trzeba więc użyć ruchu głowy jako wskaźnika. Według konstruktorów system ma pozwolić na zdalne sterowanie różnymi urządzeniami w polu widzenia użytkownika, bez konieczności wydawania komend głosowych.

Poproszony o rozwinięcie tego tematu naukowiec z Carnegie Mellon University, Chris Harrison, powiedział portalowi TechCrunch: Ludzie zawsze opuszczają wzrok na swoje telefony, co jest bardzo nietowarzyskie. Zrywają wtedy kontakt i nie widzą świata wokół. Dzięki naszemu rozwiązaniu mogą się swobodnie rozglądać, a ich smartfon i tak będzie wiedział, co ich interesuje i podpowiadał rozwiązania. Aplikacja, która obserwuje ruchy głowy użytkownika przez obiektywy jego smartfonu i sugeruje mu możliwości działania, nazywa się WorldGaze.

Pozostaje jednak jeden problem do rozwiązania. Co wtedy, gdy smartfon spoczywa w kieszeni lub w torebce i w tej sytuacji jest "ślepy"? Naukowcy z CMU mają odpowiedź i na to. Inteligentne okulary, takie jak Google Glass. Na razie jednak to jest melodia przyszłości.
źródło: PAP
Więcej na ten temat