Elon Musk, Steve Wozniak i inni podpisali się pod listem otwartym do laboratoriów AI. Chcą wstrzymać rozwój AI do momentu, aż będziemy pewni, jakie są jego skutki.
"Zatrzymajmy rozwój AI na co najmniej 6 miesięcy" - twierdzi Elon Musk i ponad 1000 innych osób
O tym, czy mamy się czego bać w kontekście AI, zostało powiedziane i napisane już wiele. Od lat trwają dyskusję nad tym, czy sztuczna inteligencja może osiągnąć samoświadomość, a każdy taki "przypadek" gdy to rzekomo miało do tego dojść, budzi duże emocje. Jednocześnie, wiadomo, że upowszechnienie się narzędzi opartych na AI będzie dla rynku pracy poważną zmianą. Nie chce używać tu słowa "zagrożenie", ponieważ w takim samym stopniu można by stwierdzić, że powstanie maszyny parowej, silników spalinowych czy internetu było "zagrożeniem" dla ówczesnego rynku pracy. AI zmieni to, jak postrzegamy takie kwestie jak własność intelektualna i praca umysłowa, jednak nie wiemy jeszcze w jaki sposób i jak bardzo.
Polecamy na Geekweek: Papież zawadiaka i inne fejki sztucznej inteligencji. Mamy ogromny problem i lepiej coś z tym zrobić
Dlatego Elon Musk wraz z innymi sugeruje, by zatrzymać rozwój AI. Przynajmniej na chwilę
Na stronie Future of Life znajduje się obecnie list otwarty skierowany do wszystkich laboratoriów zajmujących się sztuczną inteligencją, o bardzo wymownym tytule: "Wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4". Przesłanie takiego listu jest proste - widzimy obecnie wyścig zbrojeń na to, kto stworzy potężniejszą sztuczną inteligencję, a jednocześnie nikt nie jest w stanie przewidzieć konsekwencji takich działań. Rozwój takich programów zdecydowanie wpłynie na życie ludzi, ale nie wiemy jeszcze, czy będzie to pozytywny wpływ i jakie ryzyka się z tym wiążą. Dlatego osoby, które podpisały się pod listem wnioskują o wstrzymanie prac nad nowymi AI, a zamiast tego: skupienie się na tym, by obecne systemy były bardziej transparentne i godne zaufania, a także - by dać czas na umieszczenie AI w systemie prawnym. Dziś bowiem nie wiemy wielu rzeczy odnośnie legalności użycia AI, szczególnie w takich sferach jak szkolnictwo czy sztuka.
Trudno się z tezami zawartymi w liście nie zgodzić i być może właśnie dlatego jego sygnatariuszami są m.in. Elon Musk czy Steve Wozniak, a także osoby zajmujące się AI na co dzień, jak badacze z DeepMind czy prezes Stability AI. Jednak jestem również przekonany, że pomimo słuszności założeń, list ten nie przyniesie żadnych rezultatów. Głównie dlatego, że dziś AI to nie tylko "nowe możliwości dla ludzkości", ale także szansa na komercyjny sukces. I o ile część zachodnich spółek może mieć w tym wypadku na względzie kwestie etyczne, to nie znaczy, że wszyscy będą je mieli.
Dla przykładu, "wiosnę AI" przespała potęga gospodarcza jaką są Chiny i teraz próbuje nadrobić stracony czas. Jestem w stanie się założyć, że żadne listy czy petycje odwołujące się do potencjalnych zagrożeń płynących z tej technologii nie powstrzymają Państwa Środka przed osiągnięciem swojego celu i stworzeniu narzędzia, które będzie mogło konkurować z zachodnimi rozwiązaniami. Myślę, że to samo dotyczy też wielu europejskich czy amerykańskich firm. Z racji na to, że jest to rynek kompletnie niezbadany, potencjał na szybki sukces jest bardzo duży, a to wystarcza, by przestać zważać na etyczne dylematy.
To z kolei oznacza jedno - potrzebujemy wkomponować AI w prawo krajowe i międzynarodowe i to jak najszybciej. Sztuczna inteligencja zadomowiła się u nas i nigdzie się nie wybiera, więc im szybciej takie przepisy powstaną, tym szybciej wykorzystanie AI będzie usankcjonowane i tym mniej (potencjalnych) szkód będzie mogło wyrządzić jej nieprawomocne użycie.
Ale do tego potrzeba czegoś więcej, niż tylko podpisania listu.
Źródło grafik: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu