Najnowsze badania pokazują, że wyszukiwarki AI nie są w pełni niezawodne, a użytkownicy powinni podchodzić do ich wyników z dużą dozą sceptycyzmu i zawsze weryfikować informacje w wiarygodnych źródłach. Niechlubnym liderem niedokładności jest Grok Elona Muska.
Sztuczna Inteligencja robi nas w bambuko. Grok niechlubnym liderem

Sztuczna inteligencja zmienia sposób, w jaki wyszukujemy informacje, ale najnowsze badania ujawniają, że narzędzia oparte na AI często zawodzą, podając błędne odpowiedzi z nieuzasadnioną pewnością siebie. Według raportu Tow Center for Digital Journalism, aż 60% odpowiedzi generowanych przez wyszukiwarki AI jest nieprawidłowych, a niektóre modele ignorują preferencje wydawców, by pozyskać treści.
Sztuczna inteligencja często się myli. Grok najczęściej
Zespół badawczy przeanalizował osiem popularnych narzędzi wyszukiwania opartych na AI, w tym ChatGPT Search, Perplexity, Gemini, DeepSeek Search, Grok-2 Search, Grok-3 Search oraz Copilot. Naukowcy wybrali losowo 200 artykułów z 20 różnych wydawców, a następnie porównali, jak często AI poprawnie identyfikowały źródło, autora oraz link do artykułu.
Wyniki pokazały, że większość narzędzi radzi sobie słabo. Na przykład ChatGPT Search, choć odpowiedział na wszystkie 200 zapytań, tylko w 28% przypadków był całkowicie poprawny, a w 57% – całkowicie błędny. Najgorzej wypadł Grok-3 Search, który w 94% przypadków podawał nieprawidłowe informacje. Nawet Copilot firmy Microsoft, który odmówił odpowiedzi na 104 z 200 zapytań, wśród pozostałych odpowiedzi był nieprawidłowy w około 70% przypadków.
Badanie potwierdza, że modele językowe (LLM) często „kłamią z przekonaniem”, podając błędne informacje z pełną pewnością siebie. Nawet gdy przyznają się do błędu, często uzupełniają swoją odpowiedź kolejnymi nieprawdziwymi danymi. Jak zauważył Ted Gioia w swoim artykule z 2023 roku, ChatGPT potrafi odpowiadać na pytania, nawet gdy nie ma pojęcia, o czym mówi.
Co ciekawe, płatne wersje narzędzi, takie jak Perplexity Pro czy Grok-3 Search, choć odpowiadały na więcej zapytań niż ich darmowe odpowiedniki, miały również wyższy wskaźnik błędów. To rodzi pytanie, czy użytkownicy powinni płacić za dostęp do narzędzi, które nie gwarantują dokładności.
AI ignoruje preferencje wydawców. To nie jest w porządku
Badanie ujawniło również, że AI wyszukiwarki często ignorują preferencje wydawców dotyczące pozyskiwania treści. Pomimo że niektóre wydawnictwa blokują dostęp do swoich stron za pomocą protokołu Robot Exclusion Protocol, narzędzia takie jak Perplexity i ChatGPT nadal wykorzystywały ich treści. Na przykład Perplexity Pro poprawnie zidentyfikował 30% artykułów z witryn, do których teoretycznie nie powinien mieć dostępu.
Co więcej, AI wyszukiwarki często nie kierują użytkowników do oryginalnych źródeł, zamiast tego podając linki do zsyndykowanych wersji artykułów lub nawet fabrykując URL-e. Grok-3 w 154 przypadkach na 200 podał błędne linki, które prowadziły do stron z błędami.
Niektóre firmy AI, takie jak OpenAI i Perplexity, nawiązały współpracę z wydawcami, aby uzyskać dostęp do ich treści. Jednak nawet w tych przypadkach dokładność odpowiedzi pozostawiała wiele do życzenia. Na przykład ChatGPT poprawnie zidentyfikował tylko jeden z dziesięciu artykułów z San Francisco Chronicle, mimo że wydawnictwo ma umowę z OpenAI.
Danielle Coffey, prezes News Media Alliance, podkreśliła, że brak kontroli nad wykorzystaniem treści przez AI może poważnie zaszkodzić branży wydawniczej: „Bez możliwości wyłączenia się z masowego pozyskiwania danych nie możemy zarabiać na naszej wartościowej treści i płacić dziennikarzom”.
Badania Tow Center for Digital Journalism potwierdzają, że wyszukiwarki AI, choć obiecujące, wciąż mają poważne problemy z dokładnością i etyką. Ich tendencja do podawania błędnych informacji z pełnym przekonaniem oraz ignorowanie preferencji wydawców podważają zaufanie do tych narzędzi.
Grafika: depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu