Microsoft

Microsoft naprawdę to zrobił. To jedno z jego bardziej niebezpiecznych narzędzi AI

Jakub Szczęsny
Microsoft naprawdę to zrobił. To jedno z jego bardziej niebezpiecznych narzędzi AI
12

Ignite 2023 przyniósł nam jedną, bardzo poważną niespodziankę. I kto wie - być może jedną z tych "niebezpieczniejszych" od Microsoftu. Chodzi o "Azure AI Speech text-to-speech avatar". Tak potężnego zestawu możliwości dla użytkowników, jak chodzi o generowanie fotorealistycznych "awatarów" i głosów dla nich jeszcze nie było, a eksperci alarmują: wszystko przez ogromną użyteczność narzędzia w tworzeniu deepfake'ów.

Narzędzie pozwala użytkownikom generować fotorealistyczne awatary i animować je w sposób, który wzbudza u odbiorcy wrażenie pełnej synchronizacji między tym, co słyszy i tym, co widzi. Microsoft udostępnił je już w publicznej wersji zapoznawczej i trzeba przyznać - jego możliwości są naprawdę ogromne.

Polecamy na Geekweek: Polacy polubili tę aplikację. Teraz kupisz w niej też bilety PKP Intercity

Proces tworzenia filmów lub prezentacji z jego pomocą jest wręcz trywialny. Użytkownik przesyła zdjęcie osoby, którą chce "ożywić" w postaci awatara, a następnie pisze tekst do odczytania. AI obrabia zdjęcie do awatara, a ten następnie odczytuje tekst. Pracownicy korporacji, którzy nie chcą występować przed kamerami, twórcy treści w Internecie, autorzy szkoleń online będą mogli w bardzo szybki i prosty sposób wygenerować potrzebne im treści. Ale... również trolle internetowe, ludzie działający w ramach siatek produkujących fake newsy - także.

Microsoft rozdziera wręcz hurraoptymizm: do przesady chwali się tym, że narzędzie bez trudu tworzy filmy szkoleniowe, prezentacje produktów, referencje klientów i wiele innych form z minimalnym udziałem użytkownika. Potencjalnie jednak ma o wiele szerszy wachlarz zastosowań. Taki "awatar" może być wykorzystywany do tworzenia wirtualnych asystentów, chatbotów - wszędzie tam, gdzie interakcja w formie konwersacji jest potrzebna. Takie dodatkowo awatary mogą mówić w wielu językach. Jak chodzi o chatboty, mogą one korzystać z modelu GPT-3.5 od OpenAI, aby odpowiadać na pytania klientów spoza wcześniej przygotowanego skryptu: wszystko jest doskonale przemyślane.

Zróbmy sobie deepfake'a

Microsoft zdaje sobie sprawę z potencjalnych nadużyć wynikających z użycia narzędzia. Dlatego firma wprowadza pewne zabezpieczenia, aby uniknąć pewnych problemów. Dostęp do tworzonych samodzielnie awatarów jest ograniczony, a przedsiębiorstwa je tworzące będą musiały uzyskać wyraźną pisemną zgodę od osób, których awatary będą generowane. Ponadto będą musiały one dodawać oznaczenia informujące, że awatary są tworzone przy użyciu sztucznej inteligencji. Wydaje mi sięjednak, że te "zabezpieczenia" to przede wszystkim "tyłkochron" dla Microsoftu - pisemną zgodę można podrobić, a oznaczeniem nie przejmie się z pewnością ktoś, kto zechce wyprodukować deepfake'a.

Podobne kontrowersje wywołuje Personal voice. To akurat bliźniacza funkcja, która pozwala odtwarzać głos użytkownika za pomocą AI. Ten można wykorzystać potem do tworzenia "bazy" pod asystentów głosowych, do podkładania głosu - również równolegle na wiele języków - i wielu innych zastosowań. Tutaj również Microsoft stara się unikać potencjalnych konfliktów prawnych i problemów etycznych. Użytkownicy muszą wyrazić wyraźną zgodę na korzystanie z ich głosu, a do wygenerowanych nagrań zostaną dodane "akustyczne znaki wodne", co ułatwi określenie, czy dana mowa jest dziełem AI i do kogo należy oryginalny głos.

AI to nie tylko ogromne możliwości, ale przede wszystkim także konieczność rozważenia istotnych kwestii etycznych. To, co pokazał Microsoft w prosty sposób można wykorzystać do tworzenia deepfake'ów, które eksperci zgodnie uznają za niesamowite zagrożenia m. in. dla takich wartości, jak demokracja. Microsoft stąpa po cienkim lodzie, bo... jestem pewien, że prędzej czy później użyje jego narzędzi do trollowania lub nawet realizowania wrogiej z naszego punktu widzenia agendy.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu