Social Media

Media społecznościowe zalewane są treściami tworzonymi przez AI. Czas je odpowiednio oznaczyć

Piotr Kurek
Media społecznościowe zalewane są treściami tworzonymi przez AI. Czas je odpowiednio oznaczyć
2

Sztuczna Inteligencja wdarła się do naszego życia szturmem i zalewa internet ogromną falą niekontrolowanych treści. Do akcji wkraczają najwięksi gracze na rynku mediów społecznościowych. Obiecują, że łatwiej będzie wyśledzić to, co stworzyło AI.

Sztuczna Inteligencja potrafi stworzyć wiele i z każdym kolejnym miesiącem zyskuje nowe możliwości. Tekst napisany przez AI już nikogo nie zaskakuje. Większe wrażenie robią grafiki, ilustracje, a nawet zdjęcia, które w ostatnim czasie trudno jest odróżnić od rzeczywistości. Podobnie jest z filmy, nowe narzędzia do tworzenia animacji czy nagrań wideo wprawiają w osłupienie, ale w nieodpowiednich rękach mogą być skuteczną bronią do szerzenia propagandy i fake newsów.

Największym problemem współczesnego świata technologii jest szybkie wprowadzenie rozwiązań legislacyjnych, które utrzymałyby AI w ryzach. AI Act, zaproponowane przez Unię Europejską, to pierwsza próba regulacji sztucznej inteligencji, jednak do pełnego wdrożenia tego aktu w krajach unijnych daleka droga. Dlatego też ważne jest, by największe platformy internetowe wzięły sprawę w swoje ręce i wprowadziły własne rozwiązania pomagające określić to, z czym mamy do czynienia – czy dana treść jest dziełem człowieka, czy sztucznej inteligencji.

Meta mówi stop. Treści stworzone przez AI będą odpowiednio oznaczane

Meta zapowiada, że na Facebooku, Instagramie i Threads pojawią się nowe zasady dotyczące treści generowanych przez sztuczną inteligencję. Obejmą one szerszy zakres treści tworzonych przez AI - oprócz filmów również zdjęcia i dźwięki. Zamiast usuwać te treści, Meta będzie je oznaczać specjalnymi etykietami ("Stworzone za pomocą AI", "Wygenerowane przez AI") i informować o potencjalnym ryzyku dezinformacji. Treści naruszające standardy społeczności nadal będą usuwane. Do identyfikacji treści generowanych przez AI wykorzystywane będą wewnętrzne narzędzia, które opracowywane są wraz z zewnętrznymi partnerami – te mają być w stanie rozpoznać źródło pochodzenia obrazu, przede wszystkim na podstawie "niewidocznych gołym okiem znaków wodnych" i odpowiednich metadanych, które coraz częściej pojawiają się w tego typu treściach. Potrzebne jest jednak wypracowanie standardu, by móc poprawnie oznaczać treści wygenerowane przez AI oferowane przez Google, OpenAI, Microsoft, Adobe, Midjourney i Shutterstock.

Firma rozpocznie oznaczanie treści AI w maju 2024 r., a w lipcu 2024 r. przestanie usuwać materiały na podstawie starej polityki dotyczącej manipulowanych filmów. Celem zmian jest zapewnienie użytkownikom większej przejrzystości i kontekstu, aby mogli samodzielnie oceniać treści i podejmować świadome decyzje. Szefostwo Mety zdaje sobie sprawę, że zmiany te mogą budzić pewne obawy. Niektórzy użytkownicy mogą się obawiać, że etykiety AI będą zbyt uciążliwe lub mylące. Inni mogą martwić się, że Meta nie robi wystarczająco dużo, aby zapobiec rozprzestrzenianiu się dezinformacji.

Przedstawiciele Mety obiecują stałą spółpracę z użytkownikami i ekspertami, aby upewnić się, że nowe zasady są skuteczne i przejrzyste. Zapowiadane jest stałe monitorowanie i ocenianie wpływu zmian i odpowiednie reagowanie na rozwijającą się sytuację. Meta wierzy, że te zmiany są ważnym krokiem naprzód w zapewnieniu odpowiedzialnego i transparentnego wykorzystania sztucznej inteligencji w mediach społecznościowych. My możemy liczyć, że na podobne kroki zdecydują się inni, w tym X (dawniej Twitter).

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy:

news