Felietony

Nie masz kontroli nad swoimi prywatnymi danymi medycznymi. I nawet o tym nie wiesz

Jakub Szczęsny
5

Najpewniej nigdy nie dowiesz się, że Twoje prywatne dane medyczne lub zdjęcia zostały wykorzystane do tego, aby wytrenować chociażby sztuczną inteligencję. Ogromna większość osób nigdy nie sprawdzała, czy ich informacje kiedykolwiek zostały użyte w tym celu - a dlaczego tego nie robiła? Bo nie zdaje sobie sprawy z tego, jak działa świat i używanie właśnie owych danych. Natomiast artystka Lapine odkryła, że jej prywatne dane medyczne zostały użyte w LAION-5B, bazie obrazów (która używa publicznych grafik) używanej do tego, aby AI bazujące na zdjęciach ostatecznie widziały co robią.

Artystka wysłała swoje prywatne zdjęcie i z zaskoczeniem odkryła, że w bazie danych LAION-5B znajdują się medyczne obrazy jej twarzy przed i po zabiegu wykonanym przez chirurga, który zmarł na nowotwór w 2018 roku. Lapine, ze względu na Zespół Zinssera, Engmana i Cole'a musiała poddać się zabiegom, które miały na celu poprawienie jej jakości życia oraz wyglądu. Według podejrzeń samej artystki - być może ktoś, kto przejął praktykę po tym lekarzu, obszedł się z danymi nie tak, jak trzeba? Pani Lapine zezwoliła na zrobienie tych zdjęć i co więcej, zastrzegła że mogą one jedynie posłużyć do prywatnego użytku. A w jaki sposób w ogóle ta kobieta sprawdziła, czy jej zdjęcia znajdują się w bazie? Dzięki "Have I Been Trained" - gdzie właśnie użyła swojego zdjęcia.

Artystka użyła, że skradziono w pewnym sensie jej tożsamość - bo przecież wygląd również jest jej elementem. Sama woli ukrywać swoje prawdziwe imię i nazwisko, a także i wizerunek - właśnie z uwagi na fakt, iż choruje na rzadką przypadłość. Nie jest (słusznie) zadowolona z tego, że jej zdjęcia stały się częścią jakiegoś produktu - który może mieć nawet najlepsze możliwe intencje. Ale przecież może sobie życzyć tego, aby nie używać jej prywatnych zdjęć do takich właśnie celów.

Generalnie, sam LAION jest szeroko krytykowany za to, że zawiera mnóstwo potencjalnie wrażliwych grafik, które mogą pochodzić ze źródeł w których nikt nie zgodziłby się na takie użycie prywatnych zdjęć. Ars Technica umieściło próbkę z zamazanymi konturami twarzy oraz czarnymi paskami utrudniającymi identyfikację. Wygląda to przerażająco: ja wiem, że za niedługo sztuczna inteligencja może ogromnie zmieniać nasze życie. Lepiej diagnozować choroby, generować ciekawsze rozwiązania trudnych problemów. Ale - do jasnej cholery - w świecie technologii powinna istnieć jakaś etyka. Przecież ja nie mogę być pewien tego, czy zdjęcia lub dane medyczne mojego zmarłego ojca, nie są używane właśnie do tego, aby trenować AI. A ani on by tego nie chciał, ani tym bardziej ja nie chcę.

Artystka poprosiła o usunięcie zdjęcia z bazy. Inżynier LAION odpowiedział maksymalnie chamsko

Na serwerze Discord LAION usłyszała, że najlepszym sposobem na usunięcie prywatnego zdjęcia z bazy jest... zaprzestanie jego hostowania przez macierzystą stronę, na której się ono pojawiło. LAION "nie hostuje" żadnego ze zdjęć. Zgodność LAION z GDPR jest jedynie "markowana" - można użyć formularza z żądaniem usunięcia zdjęcia, o ile jest ono powiązane w metadanych z nazwiskiem. I teraz najlepsze - takie usługi jak chociażby PimEyes, pozwalają doskonale wiązać takie informacje. Bo dlaczego nie?

Doszło do tego, że artystka nie może efektywnie starać się o usunięcie zdjęć. Nie wie też, co poszło nie tak i kto w ogóle zezwolił na takie użycie zdjęć - gdzie zostały one umieszczone i w jakim kontekście. To ogromne kuriozum: nowe technologie wytworzyły problemy, których nie spodziewalibyśmy się jeszcze jakieś... 15 lat temu?

I wiecie, rozumiem wszystko. Postęp jest potrzebny. Ale nie za wszelką cenę. Sam zastanawiam się teraz, czy te zdjęcia, które umieszczam w Google Photos są bezpieczne, czy to co ląduje na Twitterze (a dotyczy mojego prywatnego życia), nie zostanie użyte w celu uczenia AI. Nie mogę mieć tej pewności również co do danych medycznych. Ów świat stał się niesamowicie przerażający i... czasami mam wrażenie że przestaję go "ogarniać"...

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu