Do tej pory asystenci głosowi, np. Siri czy Google, tylko wsłuchiwali się w komendy właściciela smartfonu czy głośnika. Nowy system poleceń już nie potrzebuje komend głosowych. On się "wpatruje" w użytkownika i odczytuje jego zamiary.
Badacze z Human-Computer Interaction Institute w uczelni Carnegie Mellon University stworzyli prototypowy inteligentny system, który wykorzystuje jednocześnie przednią i tylną kamerę smartfonu, by określić, na co w danej chwili patrzy jego użytkownik.
Użytkownik urządzenia nie będzie musiał już wypowiadać poleceń, np. włącz zmywarkę. Wystarczy, że na nią spojrzy. Musi jednak przekręcić głowę w jej kierunku, bo sztuczna inteligencja jeszcze nie czyta spojrzeń z ukosa, trzeba więc użyć ruchu głowy jako wskaźnika. Według konstruktorów system ma pozwolić na zdalne sterowanie różnymi urządzeniami w polu widzenia użytkownika, bez konieczności wydawania komend głosowych.
Poproszony o rozwinięcie tego tematu naukowiec z Carnegie Mellon University, Chris Harrison, powiedział portalowi TechCrunch: Ludzie zawsze opuszczają wzrok na swoje telefony, co jest bardzo nietowarzyskie. Zrywają wtedy kontakt i nie widzą świata wokół. Dzięki naszemu rozwiązaniu mogą się swobodnie rozglądać, a ich smartfon i tak będzie wiedział, co ich interesuje i podpowiadał rozwiązania. Aplikacja, która obserwuje ruchy głowy użytkownika przez obiektywy jego smartfonu i sugeruje mu możliwości działania, nazywa się WorldGaze.
Pozostaje jednak jeden problem do rozwiązania. Co wtedy, gdy smartfon spoczywa w kieszeni lub w torebce i w tej sytuacji jest "ślepy"? Naukowcy z CMU mają odpowiedź i na to. Inteligentne okulary, takie jak Google Glass. Na razie jednak to jest melodia przyszłości.
Użytkownik urządzenia nie będzie musiał już wypowiadać poleceń, np. włącz zmywarkę. Wystarczy, że na nią spojrzy. Musi jednak przekręcić głowę w jej kierunku, bo sztuczna inteligencja jeszcze nie czyta spojrzeń z ukosa, trzeba więc użyć ruchu głowy jako wskaźnika. Według konstruktorów system ma pozwolić na zdalne sterowanie różnymi urządzeniami w polu widzenia użytkownika, bez konieczności wydawania komend głosowych.
Poproszony o rozwinięcie tego tematu naukowiec z Carnegie Mellon University, Chris Harrison, powiedział portalowi TechCrunch: Ludzie zawsze opuszczają wzrok na swoje telefony, co jest bardzo nietowarzyskie. Zrywają wtedy kontakt i nie widzą świata wokół. Dzięki naszemu rozwiązaniu mogą się swobodnie rozglądać, a ich smartfon i tak będzie wiedział, co ich interesuje i podpowiadał rozwiązania. Aplikacja, która obserwuje ruchy głowy użytkownika przez obiektywy jego smartfonu i sugeruje mu możliwości działania, nazywa się WorldGaze.
Pozostaje jednak jeden problem do rozwiązania. Co wtedy, gdy smartfon spoczywa w kieszeni lub w torebce i w tej sytuacji jest "ślepy"? Naukowcy z CMU mają odpowiedź i na to. Inteligentne okulary, takie jak Google Glass. Na razie jednak to jest melodia przyszłości.
źródło: PAP
Więcej na ten temat