Sztuczna inteligencja to obecnie nadużywany termin, choć nie da się nie wspomnieć o pozytywnym wpływie algorytmów uczenia maszynowego, dzięki czemu na dynamiczny rozwój może liczyć wiele gałęzi nauki czy przemysłu. Okazuje się jednak, że w praktyce to wszystko nie wygląda aż tak dobrze.
Sztuczna inteligencja tylko w PowerPoincie
Curt Simon Harlinghausen doskonale podkreślił różnicę między uczeniem maszynowym, a sztuczną inteligencją: Jeżeli coś zostało napisane w Pythonie, to najprawdopodobniej jest to uczenie maszynowe. Jeżeli napisano to w PowerPoincie, to jest to zapewne sztuczna inteligencja. Na dobrą sprawę ten cytat świetnie pokazuje, jaki obecnie trwa hype na to zagadnienie i ile z niego faktycznie wynika. To trochę jak z blockchainem. Używa się samego słowa w wielu sytuacjach, szczególnie przez startupy, mimo że w sumie to nigdzie go dana firma nie zastosowała.
W sieci nauki zawrzało ostatnio po słowach Genevry Allen, statystyka z Uniwersytetu Rice'a. Powiedziała ona, że obecnie naukowcy uczą algorytmy uczenia maszynowego znajdowania wzorców w danych, nawet w taki sposób, że wyniki z jednego eksperymentu nie będą do powtórzenia w innym. Można pokusić się o stwierdzenie, że badacze doprowadzają tu do overfittingu, tj. nadmiernego dopasowania algorytmu dla wprowadzonych do niego danych.
Allen stwierdziła, że takie problemy wynikają z kiepskiego zrozumienia uczenia maszynowego. Naukowiec ma duży zbiór danych, który aż prosi się o wykorzystanie takich rozwiązań i może zastosować go do znajdowania w zbiorze podobnych profili genomów. Wydawać by się mogło, że nikomu nie będzie to przeszkadzać. Warto jednak wspomnieć, że przez to wiele badań nie przynosi w miarę powtarzalnych rezultatów, więc na dobrą sprawę niewiele może wyniknąć z takich badań.
Odkrycia na niby?
Największy problem stosowania uczenia maszynowego przez naukowców polega na tym, że w badaniach te algorytmy szukają czegoś, co w rzeczywistości nie istnieje. Tu Allen przewiduje, że w przyszłości pojawią się jeszcze specjalne algorytmy do oceniania, jak bardzo wiarygodne są bardzo przewidywania.
To budzi jednocześnie sporo wątpliwości, co do uzyskanych wyników w badaniach czy eksperymentach. Z jednej strony może to powodować pewien niepokój, szczególnie pamiętając o tym, że sztuczna inteligencja potrafi pomóc w uzupełnianiu dokumentacji medycznej i decydowaniu, jaki zabieg wykonać u pacjenta, a z drugiej pokazuje nadmierną wiarę w niezawodność takich technologii. Zamiast podchodzić do tego z dystansem, wiele osób traktuje to zbyt hurraoptymistcznie.
W tym miejscu należy też wspomnieć o ważnej wiadomości z MIT (Massachussets Institute of Technology) i QCRI (Katarska Organizacja Badań Obliczeniowych). Opracowali oni sieć neuronową do tłumaczenia tekstu, ale przedstawiono też metodę, służącą do rozpoznawania najbardziej aktywnych neuronów i byli w stanie ustalić, który za co odpowiadał w największym stopniu, co daje nadzieję, że uda się poradzić z problemem czarnego pudełka. Do tej pory sieć neuronowa, szczególnie rozbudowana, wydawała się być wielką tajemnicą, ale dzięki takim rozwiązaniom powoli zmierzamy do bardziej zaawansowanego SI.
źródło: Futurism, MIT News (1), (2)
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu