Z jednej strony mężczyźni, śliniący się do kobiet wygenerowanych przez AI, a z drugiej osoby, szukające spisku w zwykłych zdjęciach. W tym wszystkim gubi się nawet Meta.
Internetowa paranoja. Wszędzie widzimy AI – nawet tam, gdzie go nie ma
Jeszcze przed erą AI jasne było, że internauci mają ogromne problemy z odróżnianiem fejków od rzeczywistości. Nadejście generatorów tekstu, dźwięku i obrazów sprawiło jednak, że social media stanęły do góry nogami. Różnorakie kampanie informacyjne, ostrzegające przed potencjalnym oszustem, doprowadziły niejednokrotnie do efektu odwrotnego, od zakładanego. Wszystko jest dziś AI i wszystko jest przeróbką, a poziom paranoicznego sceptycyzmu chyba nigdy wcześniej nie był tak wysoki. Nie ma się co dziwić przeciętnemu Kowalskiemu, ale żeby nawet tacy giganci jak Meta nie potrafili rozpoznać, co jest prawdą, a co nie?
Meta chciała pomóc, a narobiła zamieszania. Nakładka „Made with AI” pojawia się tam, gdzie nie powinna
To zaskakujące, w jak szybkim tempie przeszliśmy od bezrefleksyjnego przyjmowania za pewnik ordynarnych fejków do podważania treści, niemających nic wspólnego z ingerencją sztucznej inteligencji. Aktywnie monitoruje zachowania internautów w mediach społecznościowych i z przykrością stwierdzam, że umiejętność weryfikacji informacji znajduje się na bardzo niskim poziomie, a doszukiwanie się AI tam, gdzie go nie ma, to już niemalże powszechne zjawisko. Okazuje się, że nawet Meta ma z tym problem, choć gigant sam jeszcze niedawno stawiał siebie w roli strażnika internetu, który podejmie się roli oznaczania zdjęć, które powstały przy pomocy AI.
Na początku roku Meta poinformowała, że zacznie oznaczać zdjęcia wygenerowane przez sztuczną inteligencję nakładkami „Made with AI” – jak powiedzieli, tak zrobili, ale jest pewien problem. Nakładki pojawiają się przy kompletnie normalnych fotografiach, a to rozjuszyło twórców, którym odbiorcy przyczepiają łatkę oszustów.
„Made with AI” zostało doklejone między innymi do fotki przedstawiającej indyjską drużynę krykieta Kolkata Knight Riders i zdjęcia z meczu koszykówki, autorstwa Pete'a Souzy. W obu przypadkach nie ma mowy o ingerencji AI, a mimo to Meta błędnie oznaczyła zdjęcia, co słusznie budzi oburzenie fotografów. Taką nakładkę twórcy – dla zachowania rzetelności – mogą dodać samodzielnie, ale w obu przypadkach „Made with AI” zostało przyklejone do publikacji bez ich zgody.
W jednym z lutowych ogłoszeń Meta przekazała, że wykorzystuje zaawansowane narzędzia do wykrywania śladów AI, zaszytych w metadanych. Dlaczego więc „Made with AI” zostało dodane do zwykłych zdjęć? Cóż, poszkodowany Pete Souza ma pewną teorię.
Każda ingerencja w zdjęcie to działanie AI? Meta musi popracować nad algorytmem
Meta nie wyjaśniła jeszcze tej sytuacji, dlatego internauci bazują na własnych poszlakach. Wspomniany Pete Souza – były fotograf Białego Domu – oświadczył, że korzystał z narzędzia Adobe do przycinania obrazu. Wchodzi więc na to, że algorytm Meta oznacza fotografie, które zostały zmienione przez zewnętrzne oprogramowanie. Inne komentarze sugerują, że nakładka „Made with AI” jest dodawana do zdjęć, z których automatycznie wycięto wybrany obiekt – np. niepożądanego przechodnia w tle – przy pomocy aplikacji AI do edycji zdjęć.
„Made with AI” nie jest więc w tym wypadku w 100% zgodne z prawdą i sugeruje, że cała fotografia została wygenerowana przez sztuczną inteligencję, a to nie tylko szkodzi autorom, ale też pogłębia zbiorową paranoję, bo niezaznajomiony z tematyką obserwator będzie powątpiewał w normalne zdjęcia, a to pogarsza zjawisko szumu informacyjnego, otwierając furtkę do ewentualnych manipulacji i dezinformacji w przyszłości.
To w połączeniu z coraz szybszą konsumpcją treści oraz przykładaniem coraz mniejszej uwagi do weryfikacji informacji sprawia, że szykuje nam się bardzo ponura przyszłość mediów społecznościowych, stojąca pod znakiem skrajnego braku zaufania, podejrzliwości i wzajemnej wrogości, a na tym skorzystają tylko ci, który w przestrzeni cyfrowej chcą dla własnych korzyści siać zamęt.
Stock image form Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu