25

Ależ podoba mi się to, co robi Google. Lens to przyszłość smartfonów

Jeżeli czytacie mnie regularnie, to wiecie, że uwielbiam wszystko, co wiąże się z typowo inteligentnymi zachowaniami naszych urządzeń. Sterowanie głosem, rozpoznawanie obiektów, operowanie na kontekście, zbieranie danych z sensorów. Owszem, tracimy tym samym naszą prywatność. Stajemy się zbiorem zmiennych dla maszyny, która uchodzi za inteligentną. Ale wiecie co? To dobra cena za to, co pokazało dzisiaj Google.

Na pozór nic ciekawego. Konrad nieco ziewa, Tomek ze stoickim spokojem ogląda wydarzenie, Maciej jak zwykle śmieszkuje na Slacku. Między nami jest (bardzo potrzebna!) różnica. Ja już chciałbym żyć w świecie, gdzie maszyna zachowuje się w intuicyjny dla mnie sposób. Chciałbym sterować domem za pomocą głosu. Nie miałbym nic przeciwko, by Asystent Google mnie budził co rano, kładł spać i mówił, którędy mam dzisiaj jechać do biura.

Przyszłości, przybywaj!

Google Lens – najnowszy produkt Google, który zaprezentowano w trakcie głównego panelu I/O 2017 pokazano na samym początku i to właśnie to zrobiło na mnie największe wrażenie. Pokrótce powiedziano o tym, co potrafi Google Lens, jakie są perspektywy na przyszłość i co dzięki temu osiągniemy. Szkoda tylko, że Google wsparło się przykładem kwiatka, który może zostać zidentyfikowany przez maszynę. Nieco ciekawszym i znacznie użyteczniejszym scenariuszem wykorzystania Lens była tabelka z nazwą sieci oraz hasłem do niej. Program wykrył ów obiekt, „zrozumiał, co to jest” i połączył telefon z routerem. Magia. Powiedziałbym „amazing”, ale to nie ten producent i… nie te okoliczności. Dzisiaj „amazing” to niemal synonim apple’owskiego, nieco zwiędłego kotleta.

Google świetnie czyta rynek AR. Podczas, gdy Samsung i reszta świty bawią się w gogle wirtualnej rzeczywistości. Microsoft ma HoloLens. Ale nikogo ani VR, ani AR nie porwały. HoloLens to produkt nieukończony, choć istnieje dla niego potencjał w zastosowaniach profesjonalnych. AR ma dużo więcej sensu – niczego nie udaje, a w powiązaniu z niesamowitymi platformami rozpoznawania obrazów, operowania na kontekście i z możliwością dostępu do największej biblioteki danych w Google – to przepotężne narzędzie. Wybaczcie mi mój rozentuzjazmowany ton – to mi się serio podoba.

Wyobraźcie sobie za X lat – owa technologia Google jest w stanie wykrywać objawy choroby jedynie na podstawie zrobionych człowiekowi zdjęć. Szukasz czegoś na biurku, nie możesz tego znaleźć. Wskazujesz aparatem na biurko i Google szuka tego za Ciebie. Szukasz kluczy w pokoju – gdzieś je położyłeś. Są na wierzchu, ale nie wiesz gdzie. No i tutaj też sprawdzi się Lens. Zastosowania można mnożyć – kilka pokazano na I/O.

Możesz chodzić po mieście, wskazywać aparatem na budynki, a Google powie Ci, co to za restauracja, jak się ją ocenia, do kiedy będzie czynna i jakie jest menu. Coś jak „Miasto w obiektywie” w Lumiach, ale… znacznie lepsze i bogatsze w informacje.

AR nie może być upierdliwy

Przynajmniej ten konsumencki. I dodatkowo, ma rozwiązywać problemy użytkowników smartfonów. To dzisiaj wyczytałem z konferencji Google, a przynajmniej części dotyczącej Lens i pochodnym. Również wyjście Google w stronę iOS z Asystentem to dobry znak na przyszłość. Google zdaje sobie sprawę z tego, że Android nie jest jedyną siłą na rynku i Mountain View potrzebuje iOS, żeby i tam prowadzić otwartą walkę z Apple. Walkę, którą w tym momencie Google wygrywa.

google, lens

Mimo szacunku do Cupertino, muszę przyznać, że średnio już wierzę w innowacyjność Cooka i jego świty. Na rynku właśnie pojawili się inni innowatorzy, którzy są w stanie zatrząść rynkiem technologicznym. Nie będzie to ogromna rewolucja. Niemniej, Google znacząco podnosi poprzeczkę w kwestii czynienia smartfona „narzędziem absolutnym”. Do dzwonienia, pisania, zamawiania jedzenia, płacenia, identyfikowania przedmiotów. Asystenta, na którego stać będzie niemal każdego.