Google wprowadzając do swojej wyszukiwarki Sztuczną Inteligencję liczyło na ogromny sukces. Okazało się, że mieliśmy do czynienia z gigantyczną wpadką. Firma wprowadza poprawki i zapowiada, że sytuacja się nie powtórzy.
Gdy Google uruchomiło wsparcie AI w swojej wyszukiwarce, mówiono, że to rewolucja dzięki której przeglądanie treści w internecie będzie jeszcze wygodniejsze. Szybko jednak okazało się, że Google zrobiło sobie z użytkowników... żarty. Bo jak inaczej można wytłumaczyć podpowiedzi typu "chcesz, by ser trzymał się pizzy? Skorzystaj z kleju", albo, że palenie w ciąży nie tylko nie wpływa negatywnie na zdrowie kobiety i dziecka, ale jest także wskazane przez lekarzy. Nie można też zapominać o zjadaniu kamieniu... Odpowiedzi na pytania zadawane Google są w większości przypadków celne i pomocne, ale są też takie, które wzbudzają nie tylko rozbawienie ale i obawy, że ktoś potraktuje te informacje na poważnie.
Co ciekawe – większość z nich pochodzi z serwisu społecznościowego Reddit, na którym nie trudno złapać się na fake newsy lub informacje, które raczej stają się mało przydatne w prawdziwym życiu. Nie brakuje też błędnych odpowiedzi na pytania czy wręcz niebezpiecznych treści, które trafią bezpośrednio do Google. A trzeba przypomnieć, że firma dostęp do bazy danych chyba najbardziej popularnego forum na świecie i sporo za niego płaci. Coś, co miało pomóc nam w codziennym życiu okazało się bardzo problematyczne, i nie ma się co dziwić, że Google postanowiło zabrać głos w sprawie i szybko postarać się naprawić błąd i problemy związane z nowymi rozwiązaniami.
Google broni AI i mówi, że rozwiązało problem dziwnych odpowiedzi
Do sprawy odniosła się właśnie Liz Reid – szefowa Google Search. We wpisie na oficjalnym blogu czytamy m.in., że AI Overviews (Streszczenia wygenerowane przez AI) różnią się od chatbotów, ponieważ są zintegrowane z systemami rankingowymi Google i zaprojektowano je do wykonywania tradycyjnych zadań wyszukiwania, takich jak identyfikowanie odpowiednich i wysokiej jakości wyników. Dzięki temu AI Overviews nie tylko generują tekst, ale także zawierają linki do dalszych źródeł. Ponieważ dokładność jest kluczowa, AI Overviews pokazują tylko informacje poparte najlepszymi wynikami z internetu, minimalizując ryzyko tworzenia fałszywych treści.
Chociaż funkcja była intensywnie testowana, miliony nowych zapytań ujawniły pewne niedoskonałości, takie jak błędne interpretacje czy wykorzystanie satyrycznych treści. W odpowiedzi, firma wprowadziła ponad tuzin usprawnień, w tym lepsze wykrywanie nonsensownych zapytań i ograniczenie użycia treści generowanych przez użytkowników pochodzących z Reddita. Mimo niewielkiej liczby błędów, Google nadal monitoruje opinie użytkowników i wprowadza poprawki, aby zapewnić wysoką jakość wyników wyszukiwania.
Pytanie tylko, czy tak duża firma jak Google nie powinna w ogóle do takiej sytuacji dopuścić? Wyścig AI trwa w najlepsze, każdy prześciga się w rozwijaniu swoich własnych produktów i to bez patrzenia na konsekwencje. Czemu nikt wcześniej tego nie wyłapał i nie naprawił? Przecież przed implementacją tak ogromnych zmian w wyszukiwarkę powinny zostać przetestowane wszystkie scenariusze. Niewykluczone, że testerzy Google nie mają tak dużej wyobraźni, jak zwykli użytkownicy sieci, ale nie powinni pozwolić, by takie rzeczy pojawiały się w odpowiedziach na zadawane w sieci pytania.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu