Dzięki AI obecnie możemy generować obrazy, tworzyć sztukę, a także analizować ogromne ilości danych. Jednak jej rosnąca popularność wiąże się z nowymi wyzwaniami, takimi jak problem "data poisoningu", który może znacząco wpłynąć na wyniki generowanych obrazów i wprowadzić chaos do naszych cyfrowych doświadczeń.
Artyści walczą ze sztuczną inteligencją. Chcą ją pokonać jej własną bronią
Generatory takie jak Midjourney czy DALL-E, bazują na ogromnych zbiorach danych, które składają się z miliardów obrazów. Pozwalają na tworzenie obrazów na podstawie samych opisów, co jest niezwykle przydatne m. in. w reklamie, sztuce, czy tworzeniu treści do Internetu - jak wskazuje powszechna praktyka.
Polecamy na Geekweek: Nadchodzi nadludzka SI. Badacze mają plan, jak ją kontrolować
"Data poisoning" to proces, w którym obrazy w zbiorach treningowych generatorów są celowo modyfikowane tak, by AI działała nieprawidłowo. Przykładowo, "zamawiając" obraz jajka - otrzymujemy od AI arbuza. Właśnie w ten sposób artyści chcą chronić się na wypadek sytuacji wyparcia ich w rynku przez AI. Właśnie poprzez oszukanie twórców AI, którzy bazują na danych z "gigasetów" - a to nic innego jak treści pochodzące z Internetu.
Takie generatory mogą być szkolone na różnych rodzajach zbiorów danych. Niektóre firmy - np. Adobe - trenują swoje generatory tylko na obrazach, do których mają prawa autorskie. Jednak inne korzystają z obrazów znalezionych w Internecie. Gigantów technologicznych posądzano już wcześniej o kradzież i nieautoryzowane wykorzystanie prac twórców i artystów - pamiętacie sprawę Geniusa, gdy oskarżano Google o kradzież słów piosenek z właśnie tej usługi?
Aby stawić czoło temu problemowi, powstało narzędzie o nazwie "Nightshade", które ma na celu ochronę praw twórców. Jak to działa? Poprzez subtelne zmiany w pikselach, które są trudne do zauważenia przez ludzkie oko, ale doprowadzają do szewskiej pasji właśnie algorytmy sztucznej inteligencji. Efekt to chaos w generowanych obrazach, gdzie wspomniany wcześniej arbuz to jajko, a samolot staje się choinką. Dane wejściowe są na tyle problematyczne, że psują sztuczną inteligencję od środka.
Objawy data poisoningu mogą być różnorodne. Generatory mogą tworzyć obrazy, w których szczegóły anatomiczne są poważnie zaburzone - np. ludzie mają dwie nogi lub trzy ręce. Co więcej, wpływ tego zjawiska nie ogranicza się tylko do obrazów - może wpłynąć na interpretowanie słów kluczowych dotyczących obrazów. Przykładowo, "zatruty" obraz auta Ferrari może wpłynąć na to, jak będą "rysowane" inne marki samochodów.
Jednym z rozwiązań po stronie twórców generatorów jest bardziej rygorystyczne zarządzanie źródłami danych wejściowych oraz ograniczenie masowego gromadzenia danych z internetu. Inną taktyką jest "modelowanie zespołowe", w którym różne modele są trenowane na różnych podzbiorach danych i porównywane, aby wykryć wartości, które znacząco od siebie odstają. Tyle, że twórcy generatorów obawiają się, że przez data poisoning znacząco wzrośnie koszt wytworzenia działającego modelu - a tym samym nie tylko sztuczna inteligencja, ale i sam rynek staną się "zepsute". Moje zdanie jest proste: gdyby nigdy nie "przeginano" z wykorzystaniem danych z Internetu bez licencji na to - pewnie zjawisko "data poisoningu" nigdy by się nie pojawiło, lub miałoby mniejsze natężenie.
Wszystko to ma również znacznie większy kontekst. W przypadku rozpoznawania twarzy, ludzie wykorzystują przecież makijaż i kostiumy, aby uniknąć identyfikacji przez kamery. Przeciwnicy takich technologii próbują omijać systemy rozpoznawania na różne sposoby. Wszystkie te działania mają swoje korzenie w obawach o prywatność i nadużycia, do których dopuszczają się big-techy i tak jest też w przypadku data poisoningu.
Walka z data poisoningiem nie musiałaby się wcale odbyć, gdyby od początku tworzenie modeli i generatorów nie było "wolną amerykanką". Twórcy i ich prace powinni być chronieni od początku i jeżeli nie zrobiliśmy z tym nic na samym początku, trudno jest teraz oczekiwać, że przestaną podkopywać rozwój sztucznej inteligencji. Tyle, że to wszystko może odbyć się ze szkodą dla rynku AI, który coraz bardziej obawia się intencjonalnego działania na jego szkodę. Natomiast artyści i twórcy - braku ochrony ich praw.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu