Google

Po co wyszukiwać tekstem, jak można zdjęciem? Google chce nas wyręczyć we wszystkim

Piotr Kurek
Po co wyszukiwać tekstem, jak można zdjęciem? Google chce nas wyręczyć we wszystkim
1

Google chce zrewolucjonizować sposób wyszukiwania na podstawie obrazu. A wszystko dzięki wykorzystaniu sztucznej inteligencji i nowym technologiom, które firma rozwija od lat.

Google to przede wszystkim wyszukiwarka, która każdego dnia odpowiada na miliardy pytań zadawane przez użytkowników z całego świata. I choć konkurencja dla najpopularniejszej wyszukiwarki stara się przyciągnąć do siebie ludzi, przed nią wciąż bardzo długa droga. Google nie pozostaje jednak bierne i stale pracuje nad udoskonaleniem swoich algorytmów i sposobów pomagania w codziennym przeglądaniu sieci. Jednym ze sposobów, który ma szansę zainteresować użytkowników, ma być usprawniony sposób wyszukiwania na podstawie obrazu z wykorzystaniem Obiektywu Google.

Jak będzie działać multiwyszukiwanie (multisearch) z wykorzystaniem Obiektywu Google? Wystarczy aplikacja mobilna Google na Androida lub iOS z włączonym dostępem do aparatu. Po wybraniu na pasku wyszukiwania ikony Obiektyw, należy zeskanować zrobione wcześniej zdjęcie lub nakierować obiektyw na konkretny przedmiot, budynek, żywą istotę, itp. Przesuwając palcem w górę, pojawi się nowe okno wyszukiwania. A w nim można doprecyzować swoje wyszukiwanie dodając odpowiednie frazy. Na podstawie przeanalizowanego obrazu można dodać swoje własne zmienne. Przykładowo: robiąc zdjęcie czarnej bluzy, będzie można sprawdzić, czy jest ona dostępna w innych kolorach. Po zeskanowaniu fotografii konkretnej rośliny, będzie można dowiedzieć się więcej na temat jej pielęgnacji.

Google zmienia sposób wyszukiwania obrazem. Multiwyszukiwanie w Obiektywie Google

Sposób działania multisearch możecie zobaczyć na poniższej animacji zamieszczonej na oficjalnym Twitterze Google:

Multiwyszukiwanie z wykorzystaniem Obiektywu Google dostępne jest dzięki stałemu rozwojowi sztucznej inteligencji oferowanej w rozwiązaniach amerykańskiej firmy. To także zasługa MUM - nowego modelu AI w wyszukiwarce, który poprawia wyświetlanie wyników na postawione w wyszukiwarce pytania. To zaprezentowana w zeszłym roku technologia wielozadaniowego ujednoliconego modelu (ang. Multitask Unified Model). Dla Google to kolejny etap w procesie odczytywania i rozumienia różnych źródeł informacji - także wizualnych. MUM jest stale rozwijane i zyskuje nowe możliwości. W przyszłości MUM poradzi sobie z bardziej skomplikowanymi zagadnieniami.

MUM radzi sobie nie tylko ze statycznymi obrazami, ale także z materiałami wideo. Google informowało w zeszłym roku, że nowy model pozwoli np. na wyszukiwanie powiązanych tematów, które w filmie nie zostały bezpośrednio poruszone. Odbywać się to ma na podstawie zaawansowanej analizy informacji zawartych w materiale wideo. Firma liczy, że dzięki rozwojowi MUM, będzie w stanie pomóc użytkownikom w odkryciu większej liczby stron internetowych, materiałów wideo, obrazów i pomysłów, na które inaczej by się nie natknęli, ani których by nie wyszukiwali.

Choć firma informuje, że multiwyszukiwanie jest już dostępne w aplikacji mobilnej Google, w pierwszej kolejności skorzystają z niej użytkownicy ze Stanów Zjednoczonych. Nie ma jednak żadnych informacji czy funkcja trafi do innych krajów i czy będzie dostępna w innych językach. Obiektyw Google w Polsce działa całkiem sprawnie - zarówno pod względem rozpoznawania znajdujących się na zdjęciach przedmiotów, tłumaczenia tekstów i sugestii zakupowych. Niewykluczone więc, że dodatkowe opcje multiwyszukiwania zawitają także do naszego kraju w najbliższej przyszłości.

Stock Image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu