Google

Po co wyszukiwać tekstem, jak można zdjęciem? Google chce nas wyręczyć we wszystkim

Piotr Kurek
Po co wyszukiwać tekstem, jak można zdjęciem? Google chce nas wyręczyć we wszystkim
Reklama

Google chce zrewolucjonizować sposób wyszukiwania na podstawie obrazu. A wszystko dzięki wykorzystaniu sztucznej inteligencji i nowym technologiom, które firma rozwija od lat.

Google to przede wszystkim wyszukiwarka, która każdego dnia odpowiada na miliardy pytań zadawane przez użytkowników z całego świata. I choć konkurencja dla najpopularniejszej wyszukiwarki stara się przyciągnąć do siebie ludzi, przed nią wciąż bardzo długa droga. Google nie pozostaje jednak bierne i stale pracuje nad udoskonaleniem swoich algorytmów i sposobów pomagania w codziennym przeglądaniu sieci. Jednym ze sposobów, który ma szansę zainteresować użytkowników, ma być usprawniony sposób wyszukiwania na podstawie obrazu z wykorzystaniem Obiektywu Google.

Reklama

Jak będzie działać multiwyszukiwanie (multisearch) z wykorzystaniem Obiektywu Google? Wystarczy aplikacja mobilna Google na Androida lub iOS z włączonym dostępem do aparatu. Po wybraniu na pasku wyszukiwania ikony Obiektyw, należy zeskanować zrobione wcześniej zdjęcie lub nakierować obiektyw na konkretny przedmiot, budynek, żywą istotę, itp. Przesuwając palcem w górę, pojawi się nowe okno wyszukiwania. A w nim można doprecyzować swoje wyszukiwanie dodając odpowiednie frazy. Na podstawie przeanalizowanego obrazu można dodać swoje własne zmienne. Przykładowo: robiąc zdjęcie czarnej bluzy, będzie można sprawdzić, czy jest ona dostępna w innych kolorach. Po zeskanowaniu fotografii konkretnej rośliny, będzie można dowiedzieć się więcej na temat jej pielęgnacji.

Google zmienia sposób wyszukiwania obrazem. Multiwyszukiwanie w Obiektywie Google

Sposób działania multisearch możecie zobaczyć na poniższej animacji zamieszczonej na oficjalnym Twitterze Google:

Multiwyszukiwanie z wykorzystaniem Obiektywu Google dostępne jest dzięki stałemu rozwojowi sztucznej inteligencji oferowanej w rozwiązaniach amerykańskiej firmy. To także zasługa MUM - nowego modelu AI w wyszukiwarce, który poprawia wyświetlanie wyników na postawione w wyszukiwarce pytania. To zaprezentowana w zeszłym roku technologia wielozadaniowego ujednoliconego modelu (ang. Multitask Unified Model). Dla Google to kolejny etap w procesie odczytywania i rozumienia różnych źródeł informacji - także wizualnych. MUM jest stale rozwijane i zyskuje nowe możliwości. W przyszłości MUM poradzi sobie z bardziej skomplikowanymi zagadnieniami.

MUM radzi sobie nie tylko ze statycznymi obrazami, ale także z materiałami wideo. Google informowało w zeszłym roku, że nowy model pozwoli np. na wyszukiwanie powiązanych tematów, które w filmie nie zostały bezpośrednio poruszone. Odbywać się to ma na podstawie zaawansowanej analizy informacji zawartych w materiale wideo. Firma liczy, że dzięki rozwojowi MUM, będzie w stanie pomóc użytkownikom w odkryciu większej liczby stron internetowych, materiałów wideo, obrazów i pomysłów, na które inaczej by się nie natknęli, ani których by nie wyszukiwali.

Choć firma informuje, że multiwyszukiwanie jest już dostępne w aplikacji mobilnej Google, w pierwszej kolejności skorzystają z niej użytkownicy ze Stanów Zjednoczonych. Nie ma jednak żadnych informacji czy funkcja trafi do innych krajów i czy będzie dostępna w innych językach. Obiektyw Google w Polsce działa całkiem sprawnie - zarówno pod względem rozpoznawania znajdujących się na zdjęciach przedmiotów, tłumaczenia tekstów i sugestii zakupowych. Niewykluczone więc, że dodatkowe opcje multiwyszukiwania zawitają także do naszego kraju w najbliższej przyszłości.

Stock Image from Depositphotos

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama