14

Google odkrywa kolejne karty na temat Projektu Glass

Być może słowo konkrety to zbyt dużo powiedziane, bo wszystkie informacje opierają się na wniosku patentowym złożonym przez Google, lecz podczas tak zwanego „sezonu ogórkowego” odnośnie projektu Google Glass, warto zainteresować się nawet tak dalekosiężnym planom Googlersów. Większość z Was doskonale zapewne pamięta zaprezentowane przez Google wideo, w którym mogliśmy zobaczyć piękną wizję dotyczącą projektu […]

Clipboard02Być może słowo konkrety to zbyt dużo powiedziane, bo wszystkie informacje opierają się na wniosku patentowym złożonym przez Google, lecz podczas tak zwanego „sezonu ogórkowego” odnośnie projektu Google Glass, warto zainteresować się nawet tak dalekosiężnym planom Googlersów.

Większość z Was doskonale zapewne pamięta zaprezentowane przez Google wideo, w którym mogliśmy zobaczyć piękną wizję dotyczącą projektu Glass. Zaś podczas konferencji Google I/O dane nam było zobaczyć słynne okulary Google w akcji, gdzie najważniejszą ich funkcją była… kamera. Kręcenie wideo czy robienie fotek z perspektywy (dosłownie) pierwszej osoby za pomocą komendy głosowej rzeczywiście robi wrażenie, ale chyba nie tylko ja czekałem na coś więcej. Wygląda na to, że niektóre z zaserwowanych w wideo zastosowań mogą wkrótce stać się faktem.

6a0168e68320b0970c017ee6498229970d-800wi

Serwis PatentBolt wnikliwie przejrzał dokumenty dotyczące projektu Glass i znalezione tam informacje wskazują, że niektóre z planów Google nareszcie zostały choć w pewnym stopniu sprecyzowane. Między innymi chodzi o wyświetlanie zawartości multimedialnych na jednym ze szkieł okularów, interpretacja gestów dotykowych i komend głosowych, a także dodatkowych funkcji jak wyszukiwanie grafik, rozpoznawanie twarzy oraz prezentacja wideo.

Jak się okazuje skrót HMD jest w tej sytuacji kluczowy, ponieważ odnosi się do frazy „Head Mounted Display”, czyli „zawieszonego na głowie ekranu”. Tak bowiem w szeregach inżynierów określany jest projekt, znany przez wszystkich jako Projekt Google Glass.

W dokumentach poświęcono naprawdę sporo kwestii sterowania i zarządzania „ubieralnym komputerem” (ang. „the wearable computer”). Nie jest to tak łatwe jak mogło by się wydawać i oprócz tych najprostszych rozwiązań, które mogą nam przyjść do głowy jak wspominane komendy głosowe czy aplikacja na smartfonie, pod uwagę brane są także te o których wcześniej nie wspominano.

6a0168e68320b0970c017d3ed5000e970c-800wi

Jednym z nich jest umieszczenie paneli dotykowych lub nawet zwykłych przycisków na obudowie urządzenia, dzięki którym sterowanie nim ma być naprawdę intuicyjne. Dla przykładu, jeżeli chcielibyśmy powiększyć wyświetlany przez okulary obraz, jedyne co musielibyśmy zrobić to dwukrotnie wcisnąć przycisk lub wykonać gest uszczypnięcia (ang. „pinch”) na panelu dotykowym. Podobnie miałoby wyglądać przeniesienie na HMD metody „przeciągnij i upuść”.

Ale czym byłoby urządzenie autorstwa Google, które nie wykorzystywałoby stworzonych już przez firmę usług i rozwiązań. Mowa tu między innymi o wyszukiwaniu na podstawie zdjęcia/grafiki czy funkcji rozpoznawania twarzy. Urządzenie wykorzystywałoby wbudowaną kamerę do zrobienia zdjęcia i po wykonaniu przez użytkownika konkretnej akcji, jak na przykład dwukrotne tapnięcie na panel dotykowy, uruchamiana zostałaby usługa. Wyszukiwanie więc informacji na temat budynku przed którym stoimy byłoby banalnie proste. Wszystkie akcje mogą być wyświetlane w trybie „pełnoekranowym” lub „zredukowanym”, czyli zajmującym około jednej czwartej dostępnej powierzchni.

6a0168e68320b0970c017c34a607cc970b-800wi

I jest to idealny moment by wspomnieć o czymś takim jak „wielofunkcyjne pole wprowadzania” (ang. „multimode input field”). To właśnie dzięki niemu możliwe będą wszystkie powyższe funkcje okularów Google, ale również wiele innych. Ma ono także pozwalać na wykorzystanie funkcjonalności opartych o aplikacje (ang. „application-based functionality”), czyli wyświetlanie wiadomości SMS czy e-maili i być może stron internetowych.

Możliwości są jednak o wiele większe – okulary Google mogą bowiem w czasie rzeczywistym dosłownie podglądać i podsłuchiwać co aktualnie widzimy i słyszymy, na podstawie czego zasugerowane może być odsłuchanie konkretnego utworu muzycznego lub obejrzenie filmu. Podobnie działałoby wyszukiwanie i wyświetlanie informacji o odsłuchiwanym kawałku czy oglądanym filmie. Mowa jest także o grach interaktywnych i rozszerzonej rzeczywistości.

Warto pamiętać, że w tej grze oprócz Google udział bierze także Apple, które co prawda już jakiś czas temu, lecz również wnioskowało o przyznanie patentu na podobną technologię. W niektórych kwestiach była ona nieco mniej konkretna, lecz chyba najciekawszą informacją jest to, że wspominana była współpraca takiego urządzenia z telefonem iPhone.

Oprócz samych możliwości, wskazane jest również zastanowić się nad zmianami i zamieszaniu jakie mogłoby towarzyszyć wprowadzeniu takiego produktu na rynek. Co na to muzea, gdzie nie wolno robić zdjęć? Jak zareagują kina? Jak zareagować mamy my sami, gdy widzimy kogoś z takimi okularami na głowie – skąd mam wiedzieć, czy właśnie nie jestem nagrywany czy fotografowany? Wątpliwości jest bardzo dużo i jestem ciekaw jak z tym poradzą sobie nie tylko sami producenci, ale również władza ustawodawcza i wykonawcza.

Źródło: Patentbold.