Nauka

Czy stajemy się bogami? Czym jest właściwie sztuczna inteligencja?

Albert Lewandowski
Czy stajemy się bogami? Czym jest właściwie sztuczna inteligencja?
Reklama

Sztuczna inteligencja stała się rzeczą, bez której nie mogą żyć startupy, podobnie jak nowe usługi od znanych graczy na rynku. Czym jednak jest? Co ją wyróżnia? Jak można ją zastosować w codziennym życiu?

Sztuczna inteligencja – co to?

Na początek wypada zacząć od zdefiniowania, co właściwie nazywamy sztuczną inteligencją. Z uwagi na ogromne zainteresowanie AI możemy spotkać się z wieloma jej opisami, co zdecydowanie utrudnia klasyfikację i jasne określenie, czy coś jest sztuczną inteligencja czy też wprost przeciwnie. Nie da się ukryć, że na przestrzeni ostatnich kilku lat mamy do czynienia z prawdziwym nadużywaniem terminu sztuczna inteligencja.

Reklama

słowniku języka polskiego autorstwa PWN możemy przeczytać, że sztuczna inteligencja to:
Dział informatyki badający reguły rządzące zachowaniami umysłowymi człowieka i tworzący programy lub systemy komputerowe symulujące ludzkie myślenie.
Ta definicja jest szeroka, ale mimo to w poprawny sposób opisuje całe AI. Niestety, nadużywanie tego terminu może wynikać z niewiedzy, ale również próby opisania swoich usług lub produktu w lepszy sposób, który niekoniecznie musi mieć z nią coś wspólnego.

Czym natomiast sztuczna inteligencja różni się względem innych dziedzin, z którymi jest utożsamiana? Najpierw mamy uczenie maszynowe (ang. Machine Learning, skrót: ML), które to stanowi część sztucznej inteligencji. Możemy tu wyróżnić cztery główne rodzaje: nadzorowane (ang. supervised), nienadzorowe (ang. unsupervised) , półnadzorowane (ang. semi-supervised)oraz ze wzmocnieniem (ang. reinforcement). Potem warto zająć się głębokim uczeniem maszynowym (ang. Deep Learning, skrót: DL). Ten termin stanowi podzbiór uczenia maszynowego, który wyróżnia się „nauką” z wykorzystaniem głębokich sztucznych sieci neuronowych. Tu istnieją takie jak: rekurencyjne (ang. recursive, skrót: RNN), konwolucyjne (ang. convolutional, skrót: CNN), jednokierunkowe, GAN (ang. Generative Adversarial Network) lub LSTM (ang. Long / Short Term Memory). Można przyjąć, że sztuczna inteligencja to połączenie tych wszystkich metod i w zasadzie obecnie to pojęcie bywa mocno nadużywane.

Sztuczna inteligencja – wybrane zastosowania z życia

Aktualnie możemy znaleźć sporo zastosowań sztucznej inteligencji w narzędziach, z których korzystamy na co dzień. Jednym z ciekawszych są asystenci głosowi w postaci Asystenta Google, Siri czy Cortany, które z pomocą SI są w stanie reagować na różne komendy użytkowników. Widać tu również ogromny progres na przestrzeni ostatnich lat. W przeszłości w zasadzie działały one z użyciem wyszukiwania konkretnego słowa w słowniku i odpowiadania na nie na podstawie zaprogramowanej wypowiedzi, ale z czasem stały się znacznie bardziej zaawansowane. Na dobrą sprawę dopiero teraz da się dostrzec w nich inteligencję, o którą od początku chodziło.

Równie interesujące są autonomiczne samochody. Zaawansowane systemy czujników, kamer oraz komputerów analizują na bieżąco sytuację wokół i odpowiednio do niej kierują autem. Do tego są w stanie nawet przewidywać niebezpieczne wydarzenia. W tym też zakresie można dostrzec największy progres na przestrzeni ostatnich kilku lat. Jednocześnie to tu rozwijane są jako pierwsze zaawansowane algorytmy do przetwarzania obrazu w czasie rzeczywistym, a później tego typu elementy będą mogły być implementowane również do produktów z różnych innych kategorii. W zasadzie da się uznać branżę motoryzacyjną za łączącą w sobie technologie starsze i nowsze, dzięki czemu to niezwykle dynamicznie rozwijający się sektor, stymulujący rozwój w obszarze widzenia komputerowego oraz sztucznej inteligencji.

Co ciekawe, nawet w branży medialnej niektóre portale stawiają na sztuczną inteligencję do tworzenia treści. Taki bot potrafi nie tylko napisać krótką notkę prasową, ale również odnieść się do konkretnych wydarzeń i ta technologia będzie na pewno udoskonalana. Nie da się ukryć, że to jest nowy rozdział dla tej branży.

Sztuczna inteligencja znajduje zastosowanie również tam, gdzie niektóre dane mogą umknąć człowiekowi. Szczególnie ważne są w tym zakresie systemy monitoringu – człowiek potrafi ze skupieniem śledzić obraz przez zaledwie 20 minut, a komputer będzie w stanie analizować zagrożenia cały czas. Do tego dochodzą systemy wykrywające oszustwa bankowe. Obecnie są one stosowane na szeroką skalę i pozwalają zminimalizować zagrożenia dla klientów przy jednocześnie nieprzerwanej pracy. W dodatku w przypadku sieci neuronowych są one w stanie uczyć się nowych niebezpieczeństw i skutecznie je wykrywać.

Future Talks - spotkania z przyszłością

Ostatnio, 31 maja 2019, odbyło się spotkanie poświęcone biznesowym i prawnym aspektom sztucznej inteligencji. W wydarzeniu tym wzięli udział eksperci, którzy dyskutowali na tematy związane z SI nie tylko od strony technicznej czy biznesowej, ale również prawnej. Nie da się ukryć, że prawo rzadko kiedy jest w stanie nadążyć za nowościami w obszarze nowych technologii. Ekspertami w tej dyskusji byli: Roman Bieda, dr inż. Jarosław Bułka oraz Piotr Biczyk. Informacje o nich oraz wywiady z nimi możecie przeczytać poniżej.

Reklama

Samo Future Talks to jedyny w Polsce cykl prestiżowych, interdyscyplinarnych spotkań, poświęconych tematyce przyszłości, łączących fireside chat w zmodyfikowanej formie z moderowaną dyskusją, podczas której specjaliści udzielają odpowiedzi na zadane wcześniej pytania uczestników. Projekt zrodził się z fascynacji jego twórców możliwościami, jakie dają innowacyjne rozwiązania i nowoczesne technologie w połączeniu z ludzką inteligencją, ale równocześnie z refleksji nad potencjałem sztucznej inteligencji i automatyzacji coraz większej ilości dziedzin życia.  Motywacją do stworzenia Future Talks była również chęć edukacji w tematyce rozwoju poprzez innowacje oraz przygotowania się na zmiany powodowane stałym rozwojem technologii i nauki.

Natomiast pod koniec tego miesiąca, 28 czerwca 2019 odbędzie się kolejne wydarzenie, tym razem skupione wokół tematu Biotechnologia, nowoczesna medycyna, a aspekty etyczne. Więcej informacji znajdziecie na stronie projektu: http://futuretalks.pl/.

Reklama

Wywiad z Piotrem Biczykiem, dyrektorem ds. strategii, QED Software

Piotr Biczyk - Chief Strategy Officer w QED Software, firmie specjalizującej się w sztucznej inteligencji i uczeniu maszynowym. Posiada wieloletnie doświadczenie w projektach związanych z tworzeniem oprogramowania, zarówno dla sektora prywatnego, jak i administracji publicznej. Fizyk z wykształcenia i zamiłowania, pracował m.in. nad zagadnieniami optyki półprzewodnikowej (niebieskie diody laserowe). Po opuszczeniu akademii zajmował się bezpieczeństwem i rozwojem oprogramowania. Obecnie spełnia swoje marzenie o połączeniu dwóch światów - ciekawych badań naukowych i budowania użytecznego oprogramowania.

Która dziedzina obecnie najbardziej korzysta z osiągnięć w dziedzinie  sztucznej inteligencji?

To trudne pytanie, bo różne dziedziny korzystają z osiągnięć AI w różny sposób. Przykładowo, w branży ubezpieczeniowej model tradycyjny, oparty na tabelach aktuarialnych dawno już poszedł w odstawkę i każda szanująca się ubezpieczalnia zamiast sztywnego taryfikatora składek posiada lub chce posiadać model umożliwiający jak największą indywidualizację oceny ryzyka klienta. Nie nazywa się tego "sztuczną inteligencją", ale to ten sam zestaw technik uczenia maszynowego, który rozumie się jako należący do szerszego zbioru "AI". Z kolei w medycynie nie jest już tak łatwo mimo, że to ta branża wydaje się wymarzoną by każdemu Kowalskiemu dać poczuć, że żyje w przyszłości. Owszem, prowadzi się badania na olbrzymią skalę, ale równie olbrzymia jest bariera wejścia wszelkich technik AI do rzeczywistej pracy diagnostycznej. Powód jest prosty – kto ma ponosić odpowiedzialność za błędną diagnozę? W przypadku lekarza sprawa jest jasna, przyzwyczailiśmy się do tego że ludzie są omylni. Ale maszyna, nawet jeśli popełnia błędy nie częściej niż doświadczony specjalista, budzi obawy.

Aby jakaś dziedzina skorzystała z dobrodziejstw AI już teraz musi być spełnione kilka warunków. Pierwszym jest dostępność dużej ilości danych o odpowiedniej jakości. Przez jakość rozumiem m.in. to, by dane nie powielały stereotypów w myśleniu ludzi, były odpowiednio oetykietowane i wyjaśnialne w języku ludzi. Drugi warunek to brak barier psychologicznych i/lub prawnych. Bo czy na przykład powierzyłbyś robotowi opiekę nad swoim noworodkiem?

Ostatnim warunkiem jest istnienie problemu, na którego rozwiązaniu można zyskać. Mogą to być zyski finansowe, np. dzięki lepszemu cennikowi ubezpieczeń. Mogą to też być korzyści operacyjne, jak zastąpienie trudno dostępnych pracowników. Warunkiem mogą być również kwestie etyczne, np. zamiast pozorować wypadki drogowe lepiej wytrenować AI wewnątrz symulatora. Może też chodzić o wykonywanie pracy w skali nieosiągalnej dla człowieka, np. wykrywanie w morzu danych przypadków odbiegających od normy, chociażby fake newsów lub fraudów.

Jak bardzo obecnie nadużywa się pojęcia "uczenie maszynowe" czy "sztuczna inteligencja"?

AI i hasła pochodne są w tej chwili na szczycie krzywej hype’u – są używane na lewo i prawo. Doszło do tego, że żadne przedsięwzięcie nie może się wydarzyć i być traktowane jako poważne, jeśli nie ma łatki AI. Na szczęście ludzie coraz częściej to widzą i reagują. Wciąż jednak hasło AI używane jest bezkrytycznie w miejscach, w których zupełnie występuje. Świetnym przykładem jest badanie przeprowadzone na początku tego roku przez brytyjski fundusz MMC. Wyszło w nim iż 40% startupów sięgających po dofinansowanie, które używają etykietki "AI-based business", tak naprawdę nie ma za dużo wspólnego z tworzeniem nowych rozwiązań AI. A czemu to robią? Powód jest prosty – w tym samym badaniu oszacowano, że podmioty twierdzące, że bazują swoje rozwiązania na AI otrzymują od 15 do 50% więcej dofinansowania.

Reklama

Jaki był najciekawszy projekt, przy którym miałeś okazję pracować?

Było i jest wiele projektów, z których każdy jest pod jakimś kątem "naj". Jedne są wspaniałe z racji wyzwań badawczych, np. jak zbudować automatyczny system doradczy, który powie człowiekowi w zrozumiały sposób jak stać się lepszym w tym, co robi. Jeszcze inne zapamiętam na zawsze ze względu na wagę zagadnienia, np.  wsparcie badań medycznych i wykrywanie chorób. Wspólnym mianownikiem wszystkich tych projektów jest nasz wspaniały zespół, łączący naukowców z programistami oraz z humanistami pomagającymi zrozumieć człowieka. Piękno tego, czym się zajmujemy polega między innymi na tym, że potrzeba na zaawansowane mechanizmy wnioskujące i decyzyjne występuje w praktycznie każdej dziedzinie biznesu.

Czy przypadkiem firmy nie zapominają o istocie danych i konieczności ich przeprocesowania przy wdrażaniu rozwiązań z elementami uczenia maszynowego?

To pytanie można rozumieć wprost. Jako pytanie o ilość i jakość danych. Otóż w świecie uczenia maszynowego więcej nie zawsze znaczy lepiej. Zanim wykorzysta się dane do zbudowania modelu, trzeba zadbać o ich odpowiednią obróbkę, o to by były reprezentatywne i właściwie dobrane do problemu który chcemy rozwiązać. Pracochłonność tych zadań często przewyższa sam nakład na zbudowanie bazujących na tych danych modeli uczenia maszynowego.

Ale w tym pytaniu kryje się też aspekt etyczny. To na ile niezadbanie o odpowiednie przygotowanie danych może przenieść ludzkie uprzedzenia i stereotypy w świat automatycznych decyzji. Też to na ile bezkrytyczna pogoń za podkręceniem wyniku finansowego prowadzi nas do dehumanizacji życia. Metody AI, niewłaściwie zastosowane, mogą tutaj dużo napsuć. I to zarówno w związku z ich użyciem umyślnym, jak i nieumyślnym.

Świetnym przykładem mechanizmu AI, który umyślnie wprowadzono w celu uzyskania określonych zmian w zachowaniach społecznych jest chiński system przyznawania obywatelom punktacji za ich zachowanie. W połączeniu z kamerami na każdym rogu, może wyglądać przerażająco. Papierek upuszczony w metrze? Punkcik ujemny. I potem płacz i zgrzytanie zębami, bo przy próbie dostania się na studia lub otrzymania kredytu zabrakło punktu.

Działaniem mniej uświadomionym jest to jak np. zindywidualizowana ocena ryzyka ubezpieczeniowego wpływa na pogłębianie rozwarstwienia społeczeństwa. Mieszkasz w dobrej (czytaj droższej) dzielnicy? Zapłacisz mniej za ubezpieczenie samochodu, bo mniejsze jest ryzyko kradzieży. Mieszkasz w podupadającej dzielnicy, bo nie było cię stać na nic innego? Zapłacisz drożej, bo przecież tutaj na każdym rogu może coś ci się stać z twoją bryczką. To nie jest fantazja. To konkretne, wzięte z rynku USA, przykłady czynników które mogą być brane pod uwagę przez mechnizmy AI wyliczające składki ubezpieczeniowe. Dlatego powinniśmy zachowywać czujność - zarówno my wszyscy konsumenci, jak i ci którzy takie rozwiązania tworzą.

Od czego powinny zacząć naukę zainteresowania tworzeniem takich algorytmów?

Przede wszystkim od podstaw. Matematykę nie bez powodu nazywa się królową nauk. Statystyka, analiza, algebra. Na początek metody regresji liniowej, regresji logistycznej. Do tego programowanie. Ostatnio na prowadzenie w tej dziedzinie wybija się Python. Podstawowe biblioteki – Pandas, Tensorflow, Keras. I przede wszystkim jak najszybciej zacząć próbować coś robić. Próbować swoich sił w analizie ogólnodostępnych zbiorów danych. Próbować tworzyć własne algorytmy wnioskujące. Brać udział w konkursach. Spotykać się z pasjonatami. Jak ktoś mądry kiedyś powiedział: „Zajmowanie się AI to nie jest zawód. To sposób na życie.”

Sztuczna inteligencja - jeszcze długa droga przed nami

Do prawdziwej, niezależnej sztucznej inteligencji jeszcze daleka droga. Niemniej jednak widać, jak duży postęp poczyniono i w jak wielu dziedzinach takie rozwiązania dają realne korzyści. Trudno w ogóle znaleźć jakikolwiek kontrargument przeciwko ich stosowaniu. W najbliższym czasie z pewnością pozwoli na automatyzację wielu czynności, co moim zdaniem przełoży się na wyższą jakość usług i przez to większe zadowolenie klientów. To naprawdę fascynująca branża, która przeżywa teraz rozkwit.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama