Coraz więcej potężnych usług AI na wyciągnięcie ręki. I wciąż żadnych narzędzi, które pozwolą je łatwo zlokalizować.
Dlaczego twórcy potężnych aplikacji AI nie są zobowiązani do dostarczania narzędzi do ich weryfikacji?
Najgorętszy temat ostatnich miesięcy: sztuczna inteligencja. Na co dzień widzimy efekty jej pracy. Teksty generowane przez ChatGPT, obrazki generowane przez Midjourney i DALL-E, a coraz gęściej robi się także w muzyce. Od lat mówiło się o potencjalnych niebezpieczeństwach zwiazanych z materiałami deepfake. Teraz, kiedy technologie pozwalające generować takie treści są na wyciągnięcie ręki dla każdego - mówi się coraz więcej. W erze fake newsów, kolejnych konfliktów i wszechobecnej dezinformacji ich siła rażenia może być jeszcze większa. Tym bardziej nie rozumiem jak doszliśmy do momentu, w którym narzędzia do naprawdę efektywnej pracy zostały udostępnione szerszej publiczności. Dostępne są w dużej mierze za darmo. Są naprawdę dobre w tym co robią. A weryfikacja tego co jest prawdziwe, a co nie, dla zwykłych zjadaczy chleba jest… właściwie niewykonalna.
Odróżnienie prawdy staje się coraz trudniejsze. Firmy niespecjalnie chcą nam w tym pomóc….
Głosy ze świata technologii — zarówno te od lat zasłużone, jak i te młodych pasjonatów, od jakiegoś czasu nawołują do wstrzymania prac nad nowoczesnymi narzędziami AI. Zrobienia krok wstecz. Pierwsze kraje decydują się zablokować ChatGPT. Nawołują do zastanowienia się co z tym fantem dalej zrobić. I szczerze? To głosy, które — mam cichą nadzieję — zostaną przez szersze grono wysłuchane. I nie dlatego, że jestem przeciwnikiem narzędzi opartych na sztucznej inteligencji. Wręcz przeciwnie — wielokrotnie przekonałem się już, że są one niezwykłą pomocą przy codziennej pracy. Problem polega jednak na tym, że świat nie do końca jest gotowy na nie w formie, w jakiej obecnie funkcjonują.
Narzędzia do weryfikacji powinny być koniecznością. I to takie, którym można zaufać
Tworzenie zaawansowanych deepfake'ów — czy to tych na wideo, tych związanych z samym dźwiękiem czy po prostu generowanie zdjęć — jeszcze nigdy nie było łatwiejsze. Narzędzia są, czekają — i tylko od użytkowników zależy co z nimi zrobią, jak je podrasują, w jaki sposób wykorzystają. Ale już tekstowe narzędzia do wyszukiwania treści napisanych przez ChatGPT pokazują, że zlokalizowanie takich materiałów jest trudniejsze niż można by tego oczekiwać. Ale OK — o ile jeszcze z tekstem problem jest w 100% zrozumiały (aby udowodnić że pisane zostały przez automat, prawdopodobnie musiałyby działać pod pewne dyktanto, a to trochę przeczy ich idei zaawansowanej "konwersacyjności"), o tyle w kwestii grafik, filmów czy nagrań audio — warto byłoby zadbać o niezmywalne ślady w plikach czy drobne elementy charakterystyczne, które pozwolą je zdemaskować. Jeżeli nie na pierwszy rzut oka — to przez dedykowane temu aplikacje.
Ucierpią na tym efekty finalne? Cóż, nie będę nawet udawał, że jest mi przykro. Ale w dobie poważnych zagrożeń i wszechobecnej dezinformacji na kolejnych polach, zamiast jej przeciwdziałać — takie rozwiązania wyłącznie dokładają problemów. I mam wrażenie że nikt sobie z tym nic nie robi teraz, a za niedługo może już... po prostu być za późno.
Grafika: Depositphotos.com
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu