Sztuczna Inteligencja

Droga niezawodnej SI wiedzie przez nieznane. Naukowcy rzucają ją na głęboką wodę, aby lepiej rozpoznawała obrazy

Patryk Koncewicz
Droga niezawodnej SI wiedzie przez nieznane. Naukowcy rzucają ją na głęboką wodę, aby lepiej rozpoznawała obrazy
Reklama

AI świetnie radzi sobie z rozpoznawaniem obrazów z wytrenowanego zbioru, jednak czasem wystarczy jeden piksel aby jej ocena była błędna. Japońscy naukowcy chcą to zmienić.

Rozpoznawanie obrazów to jedna z najszybciej rozwijających się dziedzin sztucznej inteligencji. Już dziś AI znajduje zastosowanie w autonomicznych samochodach, medycynie czy monitoringu, z wersji na wersję stając się skuteczniejszą. Jednak jej działanie wciąż można bardzo łatwo zakłócić poprzez wprowadzenie zmiennych, z którymi SI nie miała okazji jeszcze się zapoznać. Naukowcy, chcąc lepiej poznać to zjawisko, wdrożyli technikę „rzucania” sztucznej inteligencji na głęboką wodę, testując różne rodzaje algorytmów w kontakcie z nieznanym.

Reklama

Jak AI uczy się rozpoznawać obrazy

AI przeszło długą drogę. To, co kiedyś leżało w sferze marzeń badaczy, dziś jest wykorzystywane komercyjnie. Niestety do doskonałości wciąż jeszcze długa droga. Aby dojść do poziomu prawdziwie inteligentnej sztucznej inteligencji, specjaliści branży chcą nauczyć ją radzenia sobie z obrazami, na których nie była jeszcze szkolona.

Źródło: PLOS ONE

Nauka rozpoznawania obrazu jest w teorii dość prosta. Sztuczna inteligencja jest „trenowana” na danym zbiorze obrazów na tyle długo, aż będzie w stanie szybko i poprawnie zidentyfikować wizerunek, który jej się przedstawi. I tak dla przykładu jeśli chcesz, aby SI rozpoznało krowę, to dostarczasz jej różne wizerunki krów. Jednak co w momencie, gdy zostanie zapytana o inne zwierze? Cóż, to nie magia – algorytm nie wymyśli odpowiedzi, jeśli ta nie pokrywa się z jej obecnym stanem „wiedzy”. Może jedynie przewidywać poprawną odpowiedź.

Spójne błędy

Naukowcy odkryli, że zmienna, która wyprowadzi SI na manowce może być niewidoczna dla ludzkiego oka. Czasem wystarczy zaledwie jeden piksel, by technologia zawiodła. Aby sprawdzić dlaczego tak się dzieje, naukowcy z Wydziału Informatyki i Elektrotechniki Uniwersytetu Kiusiu opracowali metodę „Raw Zero-Shot”, oceniającą to, w jaki sposób sztuczne sieci neuronowe radzą sobie z nieznanymi elementami. Żeby tego dokonać, zebrali najpopularniejsze AI i w grupowym badaniu sprawdzili, czy istnieją wzorce i podobieństwa w styczności z obrazki spoza zbioru.

„Jeśli przekażesz obraz sztucznej inteligencji, będzie próbowała powiedzieć, co to jest, bez względu na to, czy ta odpowiedź jest poprawna, czy nie. Tak więc wzięliśmy dwanaście najczęstszych dziś AI i zastosowaliśmy nową metodę o nazwie Raw Zero- Shot Learning. Zasadniczo daliśmy sztucznej inteligencji serię obrazów bez żadnych wskazówek ani treningu” – Danilo Vasconcellos Vargas, kierownik badania

Źródło: PLOS ONE

Sztuczna inteligencja we wszystkich przypadkach musiała wygenerować jakąś odpowiedź i choć – tak jak oczekiwano – były błędne, to łączyły je wspólne mianowniki. Przewidywania łączyły się w zgrupowania, a im większe skupisko, tym bardziej niezawodne AI. Gęstość każdego z nich wskazywała na stopień złożoności przetwarzania nieznanych obrazów. Teraz naukowcy chcą skupić się na analizie wyników, które pozwolą ulepszyć sztuczną inteligencję w taki sposób, aby w przyszłości pikselowe zmiany nie wytrącały jej z równowagi, dzięki czemu technologia stanie się bezpieczniejsza, chociażby w kontekście samochodów autonomicznych.

Naukowcy z Uniwersytetu Kiusiu uważają, że w trenowaniu SI, zamiast skupiać się wyłącznie na dokładności, należy poprawić jej odporność na pomyłki i stopień elastyczności. Tylko wtedy sztuczna inteligencja stanie się prawdziwie inteligentna.

Stock image form Depositphotos 

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama