Felietony

Dlaczego twórcy potężnych aplikacji AI nie są zobowiązani do dostarczania narzędzi do ich weryfikacji?

Kamil Świtalski
Dlaczego twórcy potężnych aplikacji AI nie są zobowiązani do dostarczania narzędzi do ich weryfikacji?
Reklama

Coraz więcej potężnych usług AI na wyciągnięcie ręki. I wciąż żadnych narzędzi, które pozwolą je łatwo zlokalizować.

Najgorętszy temat ostatnich miesięcy: sztuczna inteligencja. Na co dzień widzimy efekty jej pracy. Teksty generowane przez ChatGPT, obrazki generowane przez Midjourney i DALL-E, a coraz gęściej robi się także w muzyce. Od lat mówiło się o potencjalnych niebezpieczeństwach zwiazanych z materiałami deepfake. Teraz, kiedy technologie pozwalające generować takie treści są na wyciągnięcie ręki dla każdego - mówi się coraz więcej. W erze fake newsów, kolejnych konfliktów i wszechobecnej dezinformacji ich siła rażenia może być jeszcze większa. Tym bardziej nie rozumiem jak doszliśmy do momentu, w którym narzędzia do naprawdę efektywnej pracy zostały udostępnione szerszej publiczności. Dostępne są w dużej mierze za darmo. Są naprawdę dobre w tym co robią. A weryfikacja tego co jest prawdziwe, a co nie, dla zwykłych zjadaczy chleba jest… właściwie niewykonalna.

Reklama
Źródło: Depositphotos

Odróżnienie prawdy staje się coraz trudniejsze. Firmy niespecjalnie chcą nam w tym pomóc….

Głosy ze świata technologii — zarówno te od lat zasłużone, jak i te młodych pasjonatów, od jakiegoś czasu nawołują do wstrzymania prac nad nowoczesnymi narzędziami AI. Zrobienia krok wstecz. Pierwsze kraje decydują się zablokować ChatGPT. Nawołują do zastanowienia się co  z tym fantem dalej zrobić. I szczerze? To głosy, które — mam cichą nadzieję — zostaną przez szersze grono wysłuchane. I nie dlatego, że jestem przeciwnikiem narzędzi opartych na sztucznej inteligencji. Wręcz przeciwnie — wielokrotnie przekonałem się już, że są one niezwykłą pomocą przy codziennej pracy. Problem polega jednak na tym, że świat nie do końca jest gotowy na nie w formie, w jakiej obecnie funkcjonują.

Cardboard human head cutout revealing circuit board content

Narzędzia do weryfikacji powinny być koniecznością. I to takie, którym można zaufać

Tworzenie zaawansowanych deepfake'ów — czy to tych na wideo, tych związanych z samym dźwiękiem czy po prostu generowanie zdjęć — jeszcze nigdy nie było łatwiejsze. Narzędzia są, czekają — i tylko od użytkowników zależy co z nimi zrobią, jak je podrasują, w jaki sposób wykorzystają. Ale już tekstowe narzędzia do wyszukiwania treści napisanych przez ChatGPT pokazują, że zlokalizowanie takich materiałów jest trudniejsze niż można by tego oczekiwać. Ale OK — o ile jeszcze z tekstem problem jest w 100% zrozumiały (aby udowodnić że pisane zostały przez automat, prawdopodobnie musiałyby działać pod pewne dyktanto, a to trochę przeczy ich idei zaawansowanej "konwersacyjności"), o tyle w kwestii grafik, filmów czy nagrań audio — warto byłoby zadbać o niezmywalne ślady w plikach czy drobne elementy charakterystyczne, które pozwolą je zdemaskować. Jeżeli nie na pierwszy rzut oka — to przez dedykowane temu aplikacje.

Ucierpią na tym efekty finalne? Cóż, nie będę nawet udawał, że jest mi przykro. Ale w dobie poważnych zagrożeń i wszechobecnej dezinformacji na kolejnych polach, zamiast jej przeciwdziałać — takie rozwiązania wyłącznie dokładają problemów. I mam wrażenie że nikt sobie z tym nic nie robi teraz, a za niedługo może już... po prostu być za późno.

Grafika: Depositphotos.com

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama