15

Rzeczywistość rozszerzona według Google? Biorę to w ciemno

Nowe metody obsługi interfejsów to coś, co w przyszłości będzie nam znacznie ułatwiać życie - to nie ulega żadnym wątpliwościom. Na tym polu dzielnie pracują właściwie wszystkie czołowa przedsiębiorstwa technologiczne, jednak Google urzeka mnie szczególnie. Pomysł na rzeczywistość rozszerzoną według Mountain View odpowiada mi obecnie najbardziej.

Po świetnym początku HoloLens, mało ostatnio słychać o tym urządzeniu. Windows Mixed Reality nie wywołało u mnie szczególnych emocji, a Google – nie tylko w trakcie I/O przebojem przemyciło własną ideę na „rozpracowanie” problemu rzeczywistości rozszerzonej. AR to niezwykle perspektywiczna wizja nowych metod obsługi nie tylko telefonów komórkowych i wydaje się, że to właśnie w Mountain View inżynierowie mają na to najlepszy sposób.

W trakcie Google Developer Days dowiedziałem się nieco więcej na temat ARCore. I wiecie co? Wygląda to naprawdę świetnie

Wczoraj miałem okazję uczestniczyć w jednym z paneli tematycznych konferencji Google Developer Days w Krakowie, na którym inżynierowie Google powiedzieli nieco więcej na temat ARCore. W przeciwieństwie do Tango, to środowisko ma na celu wprowadzenie większości obecnych na rynku telefonów do świata rzeczywistości rozszerzonej. W ramach Google Tango należało posiadać odpowiednie urządzenie, które spełnia określone wymagania. Urządzenia wchodzące w skład projektu musiały wykorzystywać wiązki w podczerwieni m. in. do określania głębi w obrazie. ARCore wykorzystuje zupełnie inne metody, które pozwalają na zaprowadzenie go do znacznie większej ilości sprzętów.

Tom Salter, VR Technical Lead Manager w Google przedstawił uczestnikom panelu tematycznego czym w ogóle jest ARCore i do czego może zostać wykorzystane. Po krótkim wprowadzeniu odnośnie możliwości technologii, programistów wprowadzono do tego, jak wdrożyć ARCore do swoich projektów.

Tom Salter, Google, ARCore

Według inżyniera Google, rzeczywistość rozszerzona (AR) to kompromis między operowaniem w świecie realnym, pozbawionym jakichkolwiek dodatków ze strony maszyn które obsługujemy oraz rzeczywistością wirtualną, gdzie właściwie cały dostępny dla nas obszar działania jest zastąpiony przez sztucznie wygenerowany świat. ARCore bazuje na zachowaniu kontaktu ze światem realnym przy okazji wprowadzenia do niego elementów świata wirtualnego. Stąd bezpośrednio wynika wcześniej wspomniany kompromis.

ARCore to przyszłość rzeczywistości wirtualnej według Google

Wspomniano o projekcie Google Tango, w ramach którego firma już wcześniej podejmowała próby rozwinięcia swojej gałęzi AR-owej. Urządzenia zgodne z tą technologią miały na wyposażeniu dwie kamery, które były w stanie skanować otoczenie w trójwymiarze oraz tworzyć ich interaktywne, zdatne do przeanalizowania przez maszynę mapy. Na ich podstawie możliwe było osadzanie obiektów bezpośrednio w ramach rzeczywistości rozszerzonej.

ARCore

ARCore zaś jest rozwinięciem projektu Google Tango. W oparciu o wcześniejsze doświadczenia związane z wykorzystaniem możliwości poprzedniej technologii, stworzono rozwiązanie, wedle którego rzeczywistość rozszerzone ma zostać wprowadzona do jak największej ilości urządzeń. Wymagania odnośnie ARCore są na tyle przyjazne dla użytkowników, że właściwie bardzo niewiele telefonów oraz tabletów nie będzie w stanie technologii udźwignąć. Szacuje się, że w ostatniej fazie istnienia ARCore jako wersji poglądowej, uprawnionych do skorzystania z niego będzie około 100 milionów sprzętów na całym świecie. Już teraz mogą z tego skorzystać posiadacze telefonów Pixel oraz Samsung Galaxy S8.

ARcore

ARCore opiera się na trzech głównych mechanizmach działania. Po pierwsze, jest w stanie śledzić ruch obiektów. Po drugie, na podstawie danych wprowadzanych przez moduł fotograficzny jest w stanie „rozumieć” otoczenie, w którym znajduje się telefon. I po trzecie, elementy osadzane w rzeczywistości wirtualnej mają reagować na zmiany w oświetleniu (kąt padania, jego obecność lub nie). Te z pozoru błahe czynniki będą niesamowicie ważne dla ogólnego działania aplikacji bazujących na ARCore.

Poziom szczegółowości projektu ARCore naprawdę zaskakuje

Urządzenie zgodne z ARCore ma za zadanie dostarczać sporo informacji na temat otoczenia. Odbywa się to za pomocą modułu fotograficznego, dzięki któremu ARCore jest w stanie „rozumieć” to, co dzieje się w realnym świecie, a ponadto – wykorzystuje IMU (Internal Measurement Unit) – czyli kombinację żyroskopu, magnetometru i akcelerometru do określania zmian położenia urządzenia. Otrzymane w ten sposób wyniki są wprowadzane do ARCore, który oblicza, w jakim miejscu powinien znajdować się dany obiekt (i w jakim kierunku powinien być zwrócony).

Dodatkowo, w ramach ARCore możliwe jest wyszukiwanie miejsc, w których możliwe jest osadzenie obiektów rzeczywistości rozszerzonej. Dlatego też, aktywnie wyszukiwane są jakiekolwiek płaskie powierzchnie, na których bez przeszkód będzie można umieścić dowolny, generowany komputerowo obiekt. ARCore obsługuje ich powiększanie, pomniejszanie oraz dowolne obracanie w dowolnym kierunku. Technologia Google ma za zadanie wykryć przestrzeń, na której możliwe jest „położenie” np. wazonu, który będzie wytworem komputerowej symulacji.

Mało tego, ARCore uwzględnia również poziom oświetlenia w otoczeniu. Ciekawie pokazano to w trakcie prezentacji: postawiony w kadrze „Pan Lew” reagował na wyłączenie oświetlenia poprzez nerwowe rozglądanie się za „zaginionym” źródłem światła. Deweloperzy mogą to wykorzystać rzecz jasna w zupełnie inny sposób, np. poprzez uwzględnienie perspektywy w kontekście oświetlenia. Obiekt, który znajduje się dalej w kadrze, gdzie światła jest bardzo mały będzie odpowiednio wygaszony względem tego, na którego światło aktualnie pada.

ARCore

Ale przecież to jeszcze nie wszystko, czym dysponuje Google. Pamiętacie jeszcze projekt Lens?

Zaprezentowany w trakcie Google I/O Lens to sztandarowy wręcz sposób na połączenie rzeczywistości wirtualnej z realną. Za pomocą jednej, bardzo prostej aplikacji mobilnej, użytkownik może otrzymać sporo informacji kontekstowych na temat otoczenia. Dajmy na to – poruszamy się w nieznanym nam mieście i potrzebujemy danych na temat miejsc, w których można po prostu dobrze zjeść. Te pojawią się na naszym ekranie, gdy tylko „wycelujemy” w nie obiektywem aparatu. Tego typu rozwiązanie można wykorzystać również w innych kwestiach – możemy tworzyć interaktywne przewodniki po budynkach bez potrzeby wspierania się tylko tabliczkami kierunkowymi. Program poprowadzi użytkownika bezpośrednio do miejsca, w których chciał się znaleźć.

ARCore

Podobny pomysł na AR miała… „stara” Nokia, gdzie w ramach programu Miasto w obiektywie dostępnego w telefonach Lumia można było uzyskać informacje na temat POI w danej lokalizacji. Niestety, projekt ten został porzucony wraz z tym, jak w Windows Phone zaczęło się dziać nieco gorzej, a ponadto – dział mobilny Nokii został przejęty przez Microsoft.

Tak, to właśnie Google jest najbliżej stworzenia ciekawej platformy AR-owej

Biorąc pod uwagę osiągnięcia innych producentów w tej kwestii świadomie podejmują ryzyko idące za tym stwierdzeniem. Ale to właśnie idea Google na skonstruowanie spójnej platformy AR mnie się podoba. Szczególnie upodobałem sobie te projekty, które dla użytkownika nie są zbyt „upierdliwe”, nie potrzebują posiadania specjalnego urządzenia lub naprawdę wyśrubowanego technicznie telefonu. ARCore to zdecydowanie takie środowisko, które pozwoli na spopularyzowanie idei rzeczywistości rozszerzonej wśród użytkowników.

Trzeba jednak pamiętać o jednym. Wkrótce odbędzie się konferencja Apple, na której zobaczymy nowe telefony. Prawdopodobnie, gigant zdecyduje się na wydanie sprzętu, który będzie mocno bazował na technologii rzeczywistości rozszerzonej, ale jeszcze nie wiemy w jakim zakresie. Jeżeli Apple zaprezentuje rozwiązanie jednoznacznie lepsze od ARCore i innych projektów, nie będzie to oznaczało fiaska dla Mountain View. Co więcej, to będzie ogromna szansa dla konsumentów, wynikająca wprost z tego, że na rynku nowych technologii zadziałała rzecz dla nas jak najbardziej pozytywna – konkurencja.

  • The Truth

    „Pomysł na rzeczywistość rozszerzoną według Mountain View odpowiada mi obecnie najbardziej.”
    Tak, szczególnie, że ARCore to na szybko odarte Tango aby zaprezentować coś na wzór ARKit od Apple:

    https://www.youtube.com/watch?v=iw9MPZoPqCQ
    https://www.youtube.com/watch?v=rIPfpGCxONQ
    https://www.youtube.com/watch?v=ZBdRAdSosv4

  • The Truth

    Tango było i było, a nagle ARKit został pokazany w czerwcu, i na pierwszych betach już dało się stworzyć coś ciekawego:
    https://www.youtube.com/watch?v=z7DYC_zbZCM

    Ogólnie ARCore to póki co niszowa sprawa. ARKit będzie dostępny dla około 400 milionów urządzeń + wszystkich nowych pokazanych 12 września na konferencji (a chętnych na nowe modele znajdzie się zapewne sporo jak zwykle), a ARCore dostępny tylko dla Google Pixel i Samsunga Galaxy S8.

  • The Truth

    „Jeżeli Apple zaprezentuje rozwiązanie jednoznacznie lepsze od ARCore”
    Jak to zaprezentuje? Już zaprezentowało znacznie więcej niż ARCore, komentarze powyżej/poniżej to ilustrują :)

    • Super, ale na razie od strony konsumenckiej wiemy o nim stanowczo za mało. ;)

    • The Truth

      Wiemy więcej niż o ARCore ;)

  • stefan

    To bierz i nie p***

  • The Truth

    „Szacuje się, że w ostatniej fazie istnienia ARCore jako wersji poglądowej, uprawnionych do skorzystania z niego będzie około 100 milionów sprzętów na całym świecie.” – „Szacuje się”, to takie korpo-optymistyczne „Jak uzyskamy połowę tego to będzie dobrze”

    A po 12 września, jak Apple udostępni swoim urządzeniom iOS 11, to nagle, jak za dotknięciem magicznej różdżki będzie 300+ milionów urządzeń i wszystkie 3 nowe iPhony z wrześniowej konferencji.

  • Tomasz Beton

    Wszyscy tutaj dyskutują czyja rzeczywistość rozszerzona jest lepsza Googla, Appla, MS czy jakikolwiek inna. A podstawowe pytanie brzmi – po co? Po filmiku zamieszczonym a artykule, wnioskuję, że na tym etapie będzie służyła do robienia foci na insta i FB dla 12 latków.

    • The Truth

      To są projekty stworzone w zaledwie kilka godzin kilku dniowej pracy. Pokazują tylko przekrój możliwości:
      (od około połowy filmiku jak potem może przejrzeć galerię swoich wizerunków razem z użytymi kosmetykami)
      https://www.youtube.com/watch?v=JzdvN64aRL4

      https://www.youtube.com/watch?v=N5sVFeVrftA

      https://twitter.com/AndrewProjDent/status/888380207962443777

      A to wszystko jeszcze przed premierą iOS 11, gdzie obecnie testy aplikacji mogli przeprowadzać tylko Ci co sami je napisali i im bliscy, lub obcy przez żmudne bawienie się z Xcode.

      Osobiście użyłbym takiej wirtualnej miarki by policzyć pole powierzchni kuchni, która ma różne nietuzinkowe zagłębienia by policzyć ile m2 płytek należy kupić.

      I tak jak teraz nie zawsze nosimy latarkę ze sobą pod ręką, gdyż wiemy, że możemy liczyć na telefon, to podobnie może być w przypadku zwykłej miarki i mierzenia stołu czy obrazów.

      Co więcej, może taki stół sobie zeskanujesz i potem porównasz go z jakimś stołem z IKEA, i to wszystko w naturalnych proporcjach i kształtach 1:1.

      Lub też jak ta miarka powyżej, „rzutem oka” wyznaczysz przekątną telewizora i będziesz od razu wiedział. Może to się okazać przydatne do mierzenia rzeczy, których nie chcesz dotykać, a są za długie by miarkę trzymać w powietrzu. a może coś leży lub stoi pomiędzy jednym końcem a drugiem, a ty w wirtualnej rzeczywistości to po prostu obejdziesz i zaznaczysz koniec a i tak będziesz miał policzone.

      Lub będziesz chciał policzyć miejsca czy odległości na szybko czegoś do czego nie będziesz miał dostępu. Pasek, czy kawałek na suficie, gdyż chciałeś kasetony/karton gips pod LEDy chciałeś założyć i tak orientacyjnie chciałeś policzyć ile by taki garb musiał mieć wysokości/szerokości.

      Możliwości AR jest tyle co zwykłych appek, a gdy wyszedł iPhone (a w sumie AppStore) i dało się na niego pisać aplikacje, pełnoprawne aplikacji w C#, to tak naprawdę tylko od dewelopera zależało co w tym kodzie zawrze. Mogłeś napisać aplikację od imitowania pierdów, albo jakieś zaawansowane narzędzie dla inżynierów do sprawdzania obliczeń czy słownik Angielsko-Polski.

    • gaktune misc

      Dokladnie, o ile rozwiazania jak HoloLens (inne z zakladanymi goglami) moga miec jakies powazniejsze zastosowania, to co otrzymamy w tym przypadku ? Modele 3D pieskow , robocikow, itp zmiksowane z otoczeniem wyswietlane na 5 calowym ekranie telefonu.

    • The Truth

      To zobacz komentarze w tej dyskusji, te o których mówił Tomasz, zarówno te powyżej i poniżej, znajdziesz tam już odrobinę ciekawsze i praktyczniejsze zastosowania.

      I to niekoniecznie musi być 5 cali, to może być wciąż lekki iPad Air (który waży tyle dwa Galaxy Note 8), lub większego iPada Pro, prawie 13 cali. I nikt nie każe ci go zaraz trzymać pół godzin, lub zakazać używania statywu, lub położyć się z nim i jeden kant o coś oprzeć.

      Póki co aplikacje te instalowali tylko Ci, którzy jest stworzyli. Czyli załóżmy masz bzika na jakimś punkcie i myślisz, że to użyteczne to tak zrobiłeś. Ale po premierze iOS 11, około 19 września, będą dostępne jak wszystkie apki, w AppStorze i tam ludzie oczywiście zweryfikują te pomysł i zgłoszą nowe pomysły do twórców.

      Głównie cały myk polega na tym, że od około 19 września (dokładnie dowiemy się 12 września), 400 milionów + każdy nowo-sprzedany iPhone, będzie mógł to użyć, uczestniczyć w tym. Jest to ogromny potencjał na dotarcie do wielu użytkowników i robienie takich aplikacji może mieć biznesowy sens. Przez co mogą się pojawić ciekawe pomysły ;)

    • gaktune misc

      Nie wiem czy obejrzalem wlasciwe filmiki o ARKit ale pokazane bylo dokladnie to o czym pisalem tzn animowane figurki w przestrzeni lub na powierzchni stolu ogladane na ekranie tym razem tabletu zamiast telefonu. W porownaniu do rozwiazan z okularami (polprzezroczystymi) nie ma sie wrazenia przebywania w tej przestrzeni. Jak wyglada sprawa iterakcji z tymi „hologramami” obsluguje sie dotykiem na ekranie telefonu /tabletu ?

    • The Truth

      Przed premierą a jaka precyzja i różnorodność:
      https://www.youtube.com/watch?v=nQpEWv9_6Cg