Sztuczna Inteligencja

AI pisało teksty dla CNET. Zrezygnowali z tej pomocy, bo robiło za dużo błędów

Kamil Świtalski
AI pisało teksty dla CNET. Zrezygnowali z tej pomocy, bo robiło za dużo błędów
2

Dyskusja wokół sztucznej inteligencji w ostatnich tygodniach nie ustaje. Teraz duży serwis przyznaje się do korzystania z jej pomocy przy przygotowaniu artykułów, ale także informuje o... rezygnacji z jej usług. Przynajmniej na jakiś czas.

Sztuczna inteligencja pisząca artykuły na podstawie informacji które znajdzie w sieci — to już się dzieje. I działa. Działa... jakoś. Bo choć wielu jest zachwyconych rezultatami szkolnych rozprawek Chat GPT (zresztą - mają ku temu powody, w końcu to przez niego uczelnie zmieniają system oceniania), to warto mieć na uwadze, że nie jest to jedyne narzędzie tego typu. I że to historie które dzieją się już co najmniej od kilku lat. I choć nie mówiło się o tym głośno, rozmaite firmy, copywriterzy, a nawet prasa — z nich korzysta. Korzystał z nich przez kilka miesięcy także popularny serwis CNET, ale jego redaktorka naczelna podzielił się ze światem historią o tym, dlaczego przestali korzystać z usług tego narzędzia.

Polecamy na Geekweek: Klik w reklamę, wydasz 1000 zł na Allegro i stracisz dużo więcej kasy

CNET wspierało się pomocą sztucznej inteligencji. Ale robiła za dużo błędów

Choć CNET przez jakiś czas korzystał z takiej pomocy, zaprzestał. Dlaczego? Według Connie Gugielmo, wykorzystywane przez nich narzędzie robiło od groma błędów. Jak wiele? Cóż — na 77 wspomnianych przez nią artykułów, aż w 41 doszukano się nieprawidłowości. To ponad połowa. Oczywiście z perspektywy redakcji to wciaż ogromne ułatwienie - bo czytają i je poprawiają. Jednak wciąż wokół narzędzi tego typu toczy się ogromna dyskusja związana z plagiatami... ale też tym, jak na takie treści zareaguje Google. Na tę chwilę oficjalnie tamtejsza redakcja zaprzestaje wspierania się pomocą narzędzi z których korzystali, ale redaktorka prowadzaca mówi wprost, że wciąż będą badać teren. I kto wie, co przyniesie przyszłość.

Znaleźliśmy artykuły, które wymagały korekty, przy czym niewielka ich liczba wymagała znacznej korekty, a kilka historii miało drobne problemy, takie jak niekompletne nazwy firm, czeskie błędy lub język, który nasi starsi redaktorzy uznali za niejasny. Zaufanie naszych czytelników jest kluczowe. Jak zawsze, gdy znajdujemy błędy, poprawiliśmy te historie, z notą redakcyjną wyjaśniającą, co zostało zmienione. Wstrzymaliśmy się z używaniem narzędzia AI i wznowimy je, gdy będziemy pewni, że narzędzie i nasze procesy redakcyjne zapobiegną błędom popełnianym zarówno przez ludzi, jak i AI.

No bo właśnie — z jednej strony plagiat i kradzież treści może grozić nieprzyjemnymi konsekwencjami prawnymi. Z drugiej jednak — może też odbić się czkawką jeżeli chodzi o ruch. Google od jakiegoś czasu pracuje już nad narzędziami, które mają uwzględniać generowane w ten sposób treści i je piętnować, to jest: zrzucać niżej w wynikach wyszukiwania. Jak wiadomo - praca w internecie to w dużej mierze optymalizacja treści pod Google. A tworzenie poradników czy ogólnych, przepastnych, artykułów za pośrednictwem kilku kliknięć może okazać się dla wielu kuszacą propozycją.

Źródło

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu