Felietony

Sztuczna inteligencja jak wąż Uroboros. Pożera swój własny ogon

Krzysztof Rojek
Sztuczna inteligencja jak wąż Uroboros. Pożera swój własny ogon
0

Co się stanie, jeżeli do silnika AI wrzucimy dane generowane przez AI. W dużym skrócie - nic przyjemnego.

Kiedy korzystamy z AI na co dzień, zazwyczaj nie zadajemy sobie pytanie odnośnie tego, w jaki sposób generowana jest nasza odpowiedź czy też - w jaki sposób otrzymujemy wybrany obraz. Owszem, mamy podstawową wiedzę o tym, że AI jest szkolone na zestawach danych (często wbrew woli ich twórców), ale - niewiele poza tym. Głównie dlatego, że taka wiedza nie jest potrzebna do używania tych programów na co dzień, więc większość osób nie zaprząta sobie nią głowy.

Polecamy na Geekweek: Uzależnienie od pracy. Uniwersalny problem na całym świecie

Jednak, tak powszechne wykorzystanie AI generuje problem, o którym chyba wszyscy słyszeliśmy. Chodzi o fakt, że nikt nie jest tak naprawdę w stanie rozróżnić rzeczy tworzonych przez AI oraz tych pisanych/rysowanych przez człowieka. Generuje to potężny problem, nie tylko w postaci fałszywych influencerów, ale przede wszystkim - jest metodą na wszelkiego rodzaju oszustwa, chociażby w szkołach.

Rzeczy tworzone przez AI nie mają żadnej cyfrowej sygnatury, która pozwoliłaby wychwycić, że mamy do czynienia z dziełem sztucznie wygenerowanym. A jeżeli ludzie nie są w stanie odróżnić tych dwóch rzeczy od siebie, to zgadnijcie, kto także nie jest w stanie tego zrobić? Oczywiście AI.

AI uczy się na własnych treściach. To prowadzi do problemów

Rzeczy generowane przez AI nie są idealne. Albo nawet więcej - czasami zawierają wręcz karykaturalne błędy, z których wszyscy się śmiejemy. Do dziś sztuczna inteligencja ma przecież problem z rysowaniem dłoni czy z podawaniem realnych faktów historycznych. Jednak niektóre błędy są mniej zauważalne. W kwestii tekstu mogą być to powtarzające się błędy składniowe, a w kwestii grafiki - błędy w oddaniu detali, światła, kolorów etc.

Źródło: Depositphotos

Takie rzeczy najczęściej "przechodzą" niezauważone, bo nikt się na nich nie skupia, i trafiają do publikacji. A stamtąd już prosta droga do bycia zebranymi przez boty i przekazania do... silnika uczącego AI. W taki sposób AI staje się wężem Uroborosem, zjadającym swój własny ogon. Co jednak to oznacza dla nas, użytkowników? Cóż, mniej więcej tyle, że rozwój AI za chwilę może zaciągnąć hamulec ręczny, ponieważ dane śmieciowe będą powodować powielanie i zwiększanie liczby błędów. Bardzo dobrze widać to na eksperymencie przeprowadzonym w generatorze grafik AI, gdzie wrzucanie danych stworzonych przez AI z powrotem do systemu powodowało, że wypluwał on coraz mniej koherentne wyniki.

Źródło: Depositphotos

Póki co problem wydaje się nie istnieć, ponieważ obecne modele AI są trenowane wyłącznie na zestawach "ludzkich danych". Ale wraz ze wzrostem popularności i kolejnymi generacjami AI oraz zwiększeniem się odsetka treści AI w sieci wpływ na wyniki będzie coraz bardziej znaczący. Podejrzewam, że dopiero wtedy ruszy globalna inicjatywa realnego flagowania treści AI, głównie dlatego, aby same boty mogły rozróżnić co jest czym.

Niemniej - problem na pewno w jakimś stopniu pozostanie, szczególnie jeżeli jako ludzkość "przerzucimy" się na treści generowane przez AI. A patrząc na to, w którą stronę prą takie firmy jak Microsoft wrzucający Binga nawet do programu Paint, czy też Google próbujące go gonić Bardem, trzeba wziąć pod uwagę taką możliwość. Może się okazać, że niedługo dane generowane przez człowieka mogą znacznie zyskać na wartości.

Źródło: Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu