Google

Dlaczego Pixel 2 robi tak dobre zdjęcia? Właśnie dlatego

Jakub Szczęsny
Dlaczego Pixel 2 robi tak dobre zdjęcia? Właśnie dlatego
12

Jeżeli zastanawialiście się, dlaczego Pixel 2 robi tak dobre zdjęcia mimo tego, że przecież "nie bije na głowę" parametrami systemu fotograficznego innych sprzętów, to musicie wiedzieć o tym, że pewne granice fizyczne w tej kwestii już osiągnęliśmy. Ale wiele jeszcze można zrobić za pomocą wyspecjalizowanych do tego celu obliczeń. Google uznał, że to dobra droga ku stworzeniu ultra-fotograficznego telefonu i jak widać, to się udaje.

Od pewnego czasu moja dziewczyna jest posiadaczką pierwszego Pixela i cóż... nawet Nokia 8, która niby odznacza się podwójnym aparatem fotograficznym, logo ZEISS na obudowie robi przy nim po prostu słabe zdjęcia. Powiem więcej - ten telefon po prostu średnio radzi sobie ze stworzeniem dobrego ujęcia, szczególnie w słabych warunkach oświetleniowych. Pierwszy Pixel doskonale sobie daje radę, a drugi... cóż. DxOMark okrzyknął go najlepszym jak dotąd foto-telefonem i choć na dobrą sprawę znaczy to niewiele, trudno jest stwierdzić, że którykolwiek z obecnych na rynku urządzeń jest od niego lepszy. Może iPhone X go przebije, ale to również nie jest pewne.

Przejdźmy do rzeczy. Pixel 2 został wyposażony w specjalny układ wspomagający robienie zdjęć

Przecież nie da się umieścić w malutkim bądź co bądź telefonie ogromnej matrycy (nie chodzi o ilość megapikseli, tylko o jej fizyczną wielkość!), która pozwoliłaby na uzyskanie zauważalnie lepszych zdjęć. Trudno tutaj także o rozbudowaną optykę. Fizyka nie jest z gumy i w dobie miniaturyzacji dosłownie wszystkiego w ogóle nam nie sprzyja. Trzeba szukać innych dróg, które pozwolą producentom na zauważalne polepszenie jakości tworzonych ujęć i odpowiedzią na to jest Pixel Visual Core. Natomiast gwoździem programu jest IPU z ośmioma rdzeniami stworzonymi przez Google. W tym układzie znajdziemy Halide oraz TensorFlow, które w przyszłości pozwolą deweloperom albo na zwiększenie możliwości w pełni programowalnego Pixel Visual Core, albo zaimplementowania mechanizmu w swoich aplikacjach.

Warto wiedzieć, że Pixel Visual Core - mechanizm opierający się również na machine learningu (tak, to uczenie maszynowe odpowiada za genialną jakość ujęć) wprowadza google'owską implementację HDR+, a ponadto zmniejsza ewentualne opóźnienia i warunkuje bardzo niską energożerność możliwości fotograficznych telefonu. Na razie jest to rozwiązanie niedostępne dla deweloperów, a zatem można z niego korzystać tylko za pomocą standardowej aplikacji aparatu w telefonach Google Pixel 2. Jednak wraz z Androidem 8.1, Pixel Visual Core zostanie otwarty dla twórców, dzięki czemu również inne aplikacje wykorzystają jego niewątpliwy potencjał.

Wojny o jakość aparatów fotograficznych będą się zatem toczyć głównie na polu software'owym

Bez ogromnego zaplecza Google nie zdołałoby stworzyć własnego chipa opartego na opracowanych już rozwiązaniach. Miło widzieć, że machine learning od Google wykracza poza standardowe ramy i pozwala usprawnić nawet takie sfery jak robienie zdjęć. To wręcz kluczowe obecnie podejście, bowiem jak wspomniałem wyżej - fizyka nam kompletnie nie sprzyja i z generacji na generację coraz trudniej jest zaproponować konsumentom jednoznacznie lepszy aparat w telefonie. Coś mi się wydaje, że przy obecnym układzie sił, to właśnie Google będzie wyznaczać nowe standardy. Pixel 2 jest tego "pierwszą jaskółką" i jestem pewien, że ów trend będzie kontynuowany.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu