Świat

Etyka firm technologicznych. Myśleliście, że jest źle? Błąd! Jest jeszcze gorzej

Krzysztof Rojek
Etyka firm technologicznych. Myśleliście, że jest źle? Błąd! Jest jeszcze gorzej
2

Na światło dzienne wychodzi coraz więcej informacji odnośnie tego, na czym szkolona jest AI. Włos się jeży na głowie.

Kiedy myślimy o technologii, przed naszymi oczami zapewne pojawia się sterylna fabryka w której tworzone są najwyższej klasy sprzęty, albo laboratorium, w którym odkrywa się nowe materiały czy projektuje nowe procesory. Jednocześnie - technologia to także często widok uśmiechniętych ludzi, korzystających z nowych gadżetów, telewizorów czy telefonów. Słowem - dzisiejszy PR nowych technologii jest zazwyczaj bardzo pozytywny, a wręcz - optymistyczny.

Jednak rzeczywistość nie mogłaby być jeszcze dalej od tego wizerunku. Przedstawiciele firm technologicznych non stop wizytują sądy z powodu łamania prawa (np. handlowego), naruszania prywatności użytkowników czy praktyk antykonsumenckich, a wiele pozytywnych zmian, jakie zaszły w ostatnim czasie (m.in. prawo do naprawy) została wymuszona przez polityków i z pewnością nie zaszłyby z dobrego serca korporacji.

Teraz jednak, kiedy wchodzimy w erę w której główne skrzypce odgrywa sztuczna inteligencja, zaczynamy dostrzegać, że zasady etyki nie tylko zostały dawno pogrzebane - one wręcz nie istnieją.

Na czym szkoli się sztuczna inteligencja? Na czym chce

To straszne, jak szybko przeszliśmy to porządu dziennego nad faktem, że AI kradnie prace artystów, dziennikarzy, pisarzy i innych osób związanych z kulturą, a następnie przerabia to, często pokazując oczywisty plagiat. Jednak teraz agencja Humans Right Watch opublikowała nowy dokument, pokazujący że w jednym z popularnych zbiorów danych, wykorzystywanym do trenowania AI (LAION-5B) znajdowały się fotografie ponad 170 dzieci, łącznie z ich danymi personalnymi.

Źródło: Depositphotos

LAION-5B jest olbrzymią bazą danych, zebraną przez webcrawlery i zawierającą ponad 5,8 miliarda zdjęć i opisów. Skąd znalazły się tam zdjęcia dzieci? Z blogów parentingowych, a część z obrazów pochodzi jeszcze z połowy lat 90'tych, gdzie osoby które zamieszczały je w sieci nie mogły nawet zdawać sobie sprawy z konsekwencji, ponieważ idea AI w obecnym kształcie nie było wtedy jeszcze obecna nawet w głowach wizjonerów.

Nie jest to pierwszy raz, kiedy webcrawlery LAION pomijają jakiekolwiek zasady etyki przy zbieraniu materiałów. W grudniu badacze z Uniwersytety Stanforda odkryli, że w tej samej bazie znajdują się materiały przedstawiające wykorzystanie seksualne dzieci. W tej samej bazie zostały też znalezione materiały pochodzące z... prywatnej dokumentacji medycznej.

Ta konkretna baza była wykorzystywana m.in do trenowania takich algorytmów jak Stable Diffusion, co oznacza, że ta AI z dużą pewnością zawiera w sobie dane z obrazów, których z etycznych względów po prostu nie powinna mieć, a nie nietrudno się domyślić, że to tylko wierzchołek góry lodowej i inne modele również trenowane są prawdopodobnie na bazach zawierających rzeczy, które nie powinny się tam znaleźć.

To stawia nas, jako ludzkość, w bardzo trudnym położeniu. Jeżeli bowiem nie mamy żadnej kontroli nad webcrawlerami (a nie mamy, ponieważ nie podlegają one żadnemu prawu), to nie wiemy czy i jak nasze dane są zbierane, przetwarzane i wykorzystywane. Nie mamy też żadnych narzędzi, żeby nie wyrazić zgody na wykorzystanie naszych zdjęć czy treści, nawet tych najbardziej prywatnych.

I oczywiście - można powiedzieć, że to, co jest w internecie, nie jest prywatne. Ale wszyscy korzystamy z internetu — rozmawiamy ze znajomymi, przesyłamy zdjęcia, załatwiamy sprawy urzędowe czy związane ze zdrowiem. Dziś internet to przecież nie tylko portale społecznościowe. Pomyślcie co by się stało, gdyby ktoś zyskał dostęp do wszystkiego, co wrzucacie do sieci, a potem po prostu sobie to zabrał.

A potem pomyślcie, że w dużym uproszczeniu w takim właśnie świecie życjemy.

 

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu