Jak się okazuje, jeżeli AI raz nauczy się kłamać, zachowanie to ciężko jest wyplenić. A teraz pomyślmy, ile razy największe programy zaserwowały nam nieprawdę...
Dziś AI, czy to ChatGPT, Bard, czy jakiekolwiek inne rozwiązanie, nie budzi już takich emocji, jak jeszcze kilka miesięcy temu. Przywykliśmy już, że możemy generować teksty, grafiki, całe materiały wideo czy nawet programy komputerowe. Z dobrodziejstwem inwentarza przyjęliśmy też fakt, że to, na czym pracuje AI, jest tak naprawdę ukradzione od artystów i twórców bez ich wiedzy i zgody, a status prawny dzieł AI nie jest (i najprawdopodobniej w najbliższym czasie nie będzie) uregulowany.
Pomimo tych wątpliwości na AI rzuciły się największe korporacje, wsadzając je dosłownie wszędzie (nawet do klawiatury). AI wydaje się być w ich materiałach reklamowych cudownym rozwiązaniem, które wyniesie możliwości danego sprzętu na nowy poziom. I o ile w pewny, bardzo konkretnych zastosowaniach się sprawdza (np. DLSS) o tyle w kwestii bycia chociażby naszym asystentem dnia codziennego, wciąż mamy tu jeden ogromny problem.
AI zwyczajnie kłamie. Na co nam takie narzędzie?
OpenAI, choć najsławniejsze, nie jest jedyną firmą zajmującą się sztuczną inteligencją. Jej rywal, firma Anthropic, opublikowała właśnie wyniki bardzo ciekawego badania odnośnie tego, czy AI można nauczyć mówienia nieprawdy i zwodzenia użytkowników w przekonujący sposób. Okazuje się, że jak najbardziej można "zarazić" model w taki sposób, by dawał użytkownikowi fałszywe poczucie prawdziwości odpowiedzi, a jednocześnie — przekazywał mu fałszywe informacje. Jednocześnie — można to zrobić w taki sposób, by model przeszedł przez trening bezpieczeństwa, a zachowanie zostało niewykryte. Kiedy jednak już AI zostanie wytrenowane w taki sposób, zachowanie to ma być niezwykle trudne do skorygowania.
Oczywiście — tutaj mówimy o sytuacji, gdy do modelu celowo zostały dodane materiały mające sprawić, by zachowywał się on w określony sposób. Natomiast pomyślmy, ile razy zapytaliśmy o coś ChatGPT (czy inne AI), a to z olbrzymią pewnością przedstawiło nam fałszywe informacje. Nie mam wątpliwości, że OpenAI starało się, by ich narzędzie odpowiadało zawsze jak najbardziej zgodnie z prawdą, ale pamiętajmy, że aby wytrenować tak olbrzymi model, potrzebna jest masa danych. Danych, które mogą być niekompletne, sprzeczne, albo też — niskiej jakości, szczególnie jeżeli mówimy o sytuacji gdy do AI trafiają dane wygenerowane przez AI.
To może prowadzić (i prowadzi) do sytuacji, w których AI z pełnym przekonanym poda nam odpowiedź kompletnie nieprawdziwą, bądź, co gorsze, po części prawdziwą, zawierając tylko wycinek, który jest fałszywy. Do czego to może prowadzić? Rozpowszechnianie się fake newsów to jedno, ale drugą kwestią są sytuacje, w których AI zacznie być używane tak, jak chcą tego producenci, czyli jako narzędzie, na którym użytkownicy będą mogli polegać w codziennym życiu. Może to prowadzić do groźnych sytuacji, podobnych do tych, w których ludzie trafią na fałszywe wyniki wyszukiwania i im zaufają. Z tym, że fake-newsowe strony z Google można wyciąć, podczas gdy, jeżeli wierzyć wynikom, korekcja zachowania AI jest niezwykle trudna do przeprowadzenia.
To oczywiście (niestety) kolejny aspekt, w którym AI jest problematyczne, a który jest zamiatany pod dywan przez tych, którzy chcą to rozwiązanie promować. Jeżeli dołączymy to do listy istniejących, nie mniej palących kwestii, trzeba przyznać, że przyszłość dla AI wygląda coraz mniej atrakcyjnie, przynajmniej w obecnym kształcie.
Źródło: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu