Jedna z influenserek zaskoczona była tym, jak bardzo zdjęcie z iPhone'a zniekształciło rzeczywistość. Zobaczcie zresztą sami.
Jeżeli sięgacie po aparaty fotograficzne inne niż te w smartfonach, to prawdopodobnie robiąc zdjęcia telefonem jesteście zaskoczeni jakie to wszystko jest proste i bezproblemowe. Kolory są żywe, HDR nie wymaga od nas robienia serii zdjęć i późniejszego łączenia ich w Lightroomie, naprawdę trudno o rozmazane zdjęcie w trybie automatycznym.
Smartfonowe algorytmy, czyli dlaczego zdjęcia z telefonu są takie ładne
Jeżeli kiedyś przyglądaliście się tematowi bliżej, to wiecie doskonale, że wszystko to jest zasługą zaawansowanych algorytmów. Twórcy smartfonów stają na głowie, by zaoferować nam możliwie najlepsze doświadczenie. Dlatego przed laty Google Pixel mimo że miał tylko jeden aparat, zostawiał konkurencję w tyle. Googlowskie algorytmy odpowiedzialne za zdjęcia nocne, odszumianie i kilka innych magicznych sztuczek powalały efektywnością działania. Sam od lat jestem miłośnikiem zdjęć z iPhone'a — w dużej mierze ze względu na... przyzwyczajenie? Wydają mi się one dużo bardziej naturalne pod kątem kolorów, niż ma to miejsce w przypadku wielu androidowych producentów. Ale jestem w pełni świadomym tego jak zaawansowane obliczenia i dziejąca się w tle edycja za tym stoją. Dla niektórych to jednak nowość, co pokazuje przykład Tessy Coates.
Jedno zdjęcie, jedna osoba, trzy różne pozy. To nie fotomontaż, to zdjęcie z iPhone'a
Zdjęcie które widzicie powyżej to modelka widziana od tyłu + dwa jej odbicia w lustrze. My o tym wiemy, algorytmy iPhone'a potraktowały ją jako trzy różne postacie. I zadbały o to, by po prostu każda z tych trzech "postaci" jak im się wydawało — wyglądała możliwie najbardziej olśniewająco. Nie była poruszona, miała dobrą pozę. A jako że finalny efekt składany jest z kilkunastu czy może nawet kilkudziesięciu rejestrowanych obrazów, efekt jaki jest... każdy widzi.
Każda z "postaci" którą uchwyciła kamera lepiej wypadła w innym momencie, dlatego też ułożenie rąk jest inne.
Zaskoczeni? Naprawdę - nie ma czym
Apple od kilku lat opowiada o zmianach które wprowadza w swoich urządzeniach, by te były w stanie zaoferować możliwie najlepsze zdjęcia. I to żaden sekret, że zaawansowane algorytmy w tle "naprawiają" materiał, który rejestrują niewielkie oczka tamtejszych kamer. Przykład lustra pokazuje jednak, jak bardzo są jeszcze ułomne.
To przypadek, który bez problemu uda wam się odtworzyć samodzielnie w analogicznych okolicznościach, jeżeli będziecie wykonywać jakiekolwiek ruchy. Nie będą do tego potrzebne żadne Live Photos czy inne rozmaitości. Ot, taka specyfika wbudowanych w iPhone'y aplikacji aparatu. Te zmiany są jednak dość "niewinne" na tle tych, o które rzekomo przed laty pokusili się inni producenci. Na przykład podmieniając widziany przez aparat księżyc na... fotkę księżyca z ichniejszej bazy danych. By była ładna i pełna detali.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu