"Sztuczna inteligencja oszukuje". Do takiego ogólnego stwierdzenia można dojść po tym, jak na światło dzienne wypłynęły nagłówki dotyczące ostatniego, dosyć osobliwego osiągnięcia AI, która miała: na podstawie zdjęć satelitarnych stworzyć takie mapy jak mamy np. w Google Maps, a następnie... bazując na takich danych wejściowych jak informacje z Google Maps wygenerować zdjęcia satelitarne, możliwie najbardziej zbliżone oryginałowi. Tej poszło jednak zdecydowanie "za dobrze" i okazało się, że ta sobie pracę znacznie uprościła.
Sztuczna inteligencja zachowała się jak zdrowy, kreatywny człowiek. I wszystkim odwala
Mówi się, że można pracować ciężko i mądrze, przy czym nie zawsze obydwa te "stany" wzajemnie się wykluczają. Ale gdybyście mieli do wyboru: zoptymalizować zasoby i wykonać zadanie szybciej, z takim samym skutkiem niż męczyć się z nim kilka długich godzin: wybralibyście opcję numer jeden. To naturalne. Sztuczna inteligencja, która otrzymała powyżej nakreślone zadanie nie zrobiła niczego, coby wykraczało poza takie podejście: zoptymalizowała zasoby i uzyskała satysfakcjonujący dla twórcy wynik.
O takim wyczynie AI wiadomo było już wcześniej, ale z niewiadomych względów media podchwyciły temat dopiero teraz. W 2017 roku w materiałach badawczych Stanford University oraz Google można było odnaleźć "historię" sztucznej inteligencji, która "oszukiwała". Oczywiście, o oszukiwaniu, szczególnie tym intencjonalnym nie może być mowy - maszyna zachowała się dokładnie tak, jak oczekiwali tego jej twórcy.
Zobacz też: Spokojnie, to nie TVP. Czyli sztuczna inteligencja prowadzi dziennik telewizyjny
CycleGAN - sztuczna inteligencja, którą nazwano oszustem
Będę to powtarzał przez cały artykuł - nazywanie AI oszustem do po prostu nadużycie. Szczególnie w sytuacji, w której każe się jej a) ze zdjęć satelitarnych wykonać materiały topograficzne b) z materiałów topograficznych wygenerować grafiki jak najbardziej zbliżone do tych satelitarnych. CycleGAN szło to tak dobrze, że naukowcy nie mogli wyjść z podziwu - generowane pliki były tak dokładne i wierne oryginałom, że... było to dalece podejrzane. Zdecydowano się prześledzić, w jaki sposób AI próbuje generować te grafiki i doznano "czegoś w rodzaju szoku". Żaden szok, po prostu optymalizacja.
Badacze utrzymują, że obydwa zadania były od siebie rozłączne, nie następowały po sobie i nie były częścią jednej, większej instrukcji. Mimo wszystko, rozliczana z wyników AI próbowała znaleźć rozwiązanie swojego problemu: "jak uzyskać jak najlepszy wynik w trakcie generowania grafiki?" i... uznała, że najprościej będzie umieszczać na materiałach z zadania a (zdjęcia satelitarne -> topografia miasta) niezdatne do odczytania przez ludzkie oko obszary zaciemnienia, w których zakoduje wygląd zdjęcia satelitarnego. W momencie, gdy człowiek zażyczy sobie, by topografie zamienić na zdjęcia jak najbliższe tym satelitarnym, skorzysta z nich i wygeneruje możliwie najlepszy obraz. Proste? Proste.
Jak naukowcom udało się wpaść na ten "wałek"? Okazało się, że tuż po tym, jak AI generowała topografie miast, badacze usuwali niektóre niepotrzebne szczegóły. Mimo to, bazując na nich w kolejnym zadaniu, sztuczna inteligencja i tak je odtwarzała - a było to przecież niemożliwe. Obecność "zaszyfrowanych" w obrazie informacji pozwalała jej jednak na przywrócenie szczegółów, których w normalnych warunkach nie zdołałaby umieścić na grafice wynikowej zadania b (topografia -> generowanie zdjęcia satelitarnego).
Sztuczna inteligencja na Antyweb Czy zastąpi Ci przyjaciela?
Czy to oznacza, że sztuczna inteligencja nas oszukała?
Nie - sztuczna inteligencja to w dalszym ciągu wytwór, który robi to, co mu każemy: od A do Z, samodzielnie konstruując środki, którymi posłuży się do osiągnięcia celu (aby wykonać zadanie). W sumie, można by ją teraz spersonifikować i powiedzieć, że "za bardzo wzięła sobie do serca" konieczność wykonania grafiki satelitarnej w jak największej zgodzie z oryginałem. Ale to nie ma sensu: zachowała się dokładnie tak, jak oczekiwali tego badacze. Natomiast już środki, których użyła to zwyczajnie najsensowniejsza w tej sytuacji droga: przede wszystkim najbardziej optymalna i zużywająca najmniej zasobów. O intencjonalności tego "oszustwa" nie ma więc mowy, w ogóle tutaj nie ma mowy o oszustwie i basta.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu