53

Samochód Google spowodował stłuczkę i… I bardzo dobrze

Rano Tomasz informował, że pojazd autonomiczny Google w końcu zaliczył wpadkę - uderzył w autobus, a amerykańska firma przyznała, że za zdarzenie odpowiada ich maszyna. Wypadek szybko skupił na sobie uwagę mediów, bo to podobno pierwsza oznaka słabości autonomicznych pojazdów od giganta z Mountain View. Wcześniej brały udział w stłuczkach czy wypadkach, ale powodowali je inni kierowcy. Pojawia się zatem dowód na niedoskonałość rozwiązania Google. A to mnie... cieszy.

Zacznijmy od tego, że słowo „wypadek” jest tu chyba nadużyciem. Osób poszkodowanych brak, oba pojazdy poruszały się z niewielką prędkością, więc szkody nie mogły być duże. Ot, stłuczka, jakich na ulicach wiele – także tych kalifornijskich, gdzie doszło do zdarzenia. Napisałem też, że to podobno pierwsza oznaka słabości, bo nie mam 100-procentowej pewności, że we wcześniejszych zdarzeniach winę ponosili wyłącznie kierowcy innych pojazdów, tych tradycyjnych. Ale czy to jest aż tak istotne?

Trzeba pamiętać, że tych stłuczek nie było zbyt wiele, nie słyszałem też o żadnym bardzo poważnym wypadku z udziałem samochodu Google. A obecny szum wokół starcia z autobusem, który nie ustąpił (bo nie musiał) to chyba przesada. Naprawdę dziwnie się zrobi, gdy ktoś na tej podstawie zacznie dowodzić, że ta technologia jednak jest zawodna, że trzeba uważać, że autonomiczne pojazdy nie powinny być dopuszczane do ruchu, bo stwarzają zagrożenie. Dziwnie zrobi się z dwóch powodów.

Po pierwsze, na podstawie jednego zdarzenia nie można wyrokować na temat całego projektu. Trzeba na to spojrzeć z szerszej perspektywy i odnieść zdarzenie do liczby mil czy godzin przejechanych przez pojazdy Google. To powinno pokazać, że maszyny są jednak bezpieczne. Po drugie, i to mnie intryguje jeszcze bardziej, czy ktoś zakładał, że to rozwiązanie jest idealne? Przydarzyła się stłuczka, ale nie powinna nas ona dziwić – projekt jest w fazie testów, a rozwiązania doskonałe nie istnieją. Nawet, gdy pracuje się nad nimi przez dekady. Może ta „wpadka” uświadomi to niektórym ludziom.

Dlaczego nie istnieją? Najprostsza odpowiedź, jaka nasuwa mi się na myśl: bo stoi za tym człowiek. Maszyna może się uczyć, ale za ten proces odpowiada człowiek. Ze wszystkimi swoimi niedoskonałościami. Warto w tym miejscu podkreślić, że z opisu zdarzenia zaprezentowanego przez Google, wynika, iż kierowca siedzący w autonomicznym pojeździe nie zareagował, bo uznał, że autobus zachowa się inaczej. Wychodzi więc na to, że maszyna popełniła ludzki błąd. Jaki pan, taki kram.

Zakładam, że im więcej danych zbiorą pojazdy autonomiczne, im więcej nabiorą doświadczenia, tym mniejsze będzie ryzyko wpadki, bo maszyna sama zdobędzie odpowiednią wiedzę. Zresztą, lekcje takie, jak ta wspomniana, są potrzebne – poprawią nasze bezpieczeństwo w przyszłości. Trzeba też zwrócić uwagę na fakt, iż kierowcą autobusu był człowiek. A gdyby to była maszyna, do kolizji pewnie by nie doszło – komputery by się porozumiały i ustaliły, który jedzie pierwszy.

Wykluczymy ludzi z procesu uczenia (gdy maszyny zdobędą już odpowiednią wiedzę i same będą ją mogły modyfikować, rozszerzać), wykluczymy ludzi jako kierowców i powinno się zrobić naprawdę bezpiecznie. A przy tym ruch będzie płynny, jazda pewnie bardziej ekonomiczna. Nadal uważam, że wprowadzenie autonomicznych pojazdów na masową skalę może być czymś naprawdę dużym. I chciałbym, by auta Google (lub innych firm) częściej zaliczały wpadki – im więcej wiedzy zdobędą w trakcie nauki, tym lepiej będzie później, gdy powierzymy im nasze bezpieczeństwo.