10

Jeśli kiedykolwiek powstanie Kinect dla telefonów, będzie działał właśnie tak

Producenci prześcigają się w wykorzystywaniu coraz to bardziej wymyślnych form interakcji z naszymi urządzeniami. Było już wykrywanie spojrzenia, były gesty na wyłączonym wyświetlaczu, wybudzanie poprzez stuknięcie, a nawet reagowanie na zbliżającą się w kierunku wyświetlacza dłoń. Elliptic Labs proponuje nam coś zupełnie nowego. Coś na miarę Kinecta, tyle że w mobilnym wydaniu. Technologia rozwijana przez Eliptic Labs […]

Producenci prześcigają się w wykorzystywaniu coraz to bardziej wymyślnych form interakcji z naszymi urządzeniami. Było już wykrywanie spojrzenia, były gesty na wyłączonym wyświetlaczu, wybudzanie poprzez stuknięcie, a nawet reagowanie na zbliżającą się w kierunku wyświetlacza dłoń. Elliptic Labs proponuje nam coś zupełnie nowego. Coś na miarę Kinecta, tyle że w mobilnym wydaniu.

Technologia rozwijana przez Eliptic Labs jest niesamowitym krokiem naprzód w stosunku do tego, co aktualnie praktykują producenci. bazuje ona na ultradźwiękach, dzięki czemu możliwe jest rozpoznawanie wszelkich gestów użytkownika w zasięgu 180 stopni. Tak naprawdę zatem, urządzenie rozpoznaje wszystkie polecenia wydawane bezpośrednio przed, a także nieco z boku urządzenia. Zresztą doskonale ilustruje to wideo, które wywarło na mnie niesamowite wrażenie.

Technologia Eliptic Labs ma szansę zrewolucjonizować sposób, w jaki korzystamy ze smartfonów i tabletów. Nie jest to może alternatywa dla wyświetlacza dotykowego, który w pewnych scenariuszach sprawdzi się po prostu lepiej – chociażby ze względu na większą precyzyjność. Doskonale jednak nadaje się jako dopełnienie tegoż.

Smartfon staje się gotowy do interakcji w momencie, gdy zbliżymy do niego dłoń. Możemy na tym poprzestać i wydawać polecenia za pomocą gestów (idealne w sytuacji, gdy mamy np. grube rękawiczki lub brudne dłonie). Możemy jednak również uzyskać bezpośredni kontakt z urządzeniem, dotykając po prostu wyświetlacza. W obu przypadkach rozwiązanie od Eliptic Labs przynosi wymierne korzyści.

Tak, przemawia przeze mnie huraoptymizm. Szczególnie, gdy przeniesiemy to rozwiązanie na grunt wearables. Nie jest tajemnicą, że Android Wear mocno bazuje na gestach. Jeśli będziemy mogli je wydawać bezpośrednio nad zegarkiem, bez potrzeby dotykania ekranu, otworzą się przed nami nowe możliwości. Zegarek będzie mógł bowiem w bardziej efektywny sposób dostosowywać wyświetlane treści do tego, czego aktualnie potrzebujemy.

Scenariusz ten nie jest oczywiście do końca kolorowy. Bo gdy wszyscy zaczniemy nad naszymi smartfonami i zegarkami wymachiwać dłońmi, niczym zaklinacze rzucający potężne klątwy, będzie to wyglądało co najmniej komicznie. Ale może właśnie taka jest cena postępu – to, co dziś wydaje się nam śmieszne (żałosne), jutro stanie się ogólnie przyjętym standardem. Ja kupuję taką wizję.