Autonomiczne samochody to przyszłość motoryzacji. W nowotechnologicznych "moto" kręgach to stwierdzenie powtarza się jak mantrę, nieco zapominając o tym, że człowiek ostatecznie odda "lejce" maszynie i obdarzy ją naprawdę sporym zaufaniem. To oczywiście zrodzi sporo problemów, o których na razie nie myślimy, ale powinniśmy zacząć już teraz. Ciekawscy naukowcy zadają sobie natomiast pytanie: "jak dużo trzeba, żeby autonomiczny samochód zgłupiał"? Okazuje się, że stosunkowo niewiele.
Nie uwierzysz jak niewiele trzeba, żeby autonomiczny samochód... zgłupiał
Idealny autonomiczny samochód doskonale zna przepisy ruchu drogowego, nigdy się nie myli i bezbłędnie rozpoznaje zasady ustalane przez umowne symbole znajdujące się na słupach, bezpośrednio na drodze i dopasowuje ich użycie do aktualnie występującej sytuacji. Każdy, kto ma prawo jazdy dobrze wie, że znaki są ważne i w codziennej jeździe przydaje się nam nie prosty zestaw kilku znaków - ważne jest rozpoznawanie i rozumienie całej palety. My - ludzie nie mamy z tym problemu. STOP to STOP, czerwone światło to czerwone światło i nie może być inaczej. Owszem, oznakowanie czasami potrafi zaskoczyć, ale i z tego można wybrnąć.
A co by było, gdyby maszyna nie była w stanie rozpoznać znaku, albo zidentyfikowała go źle?
Modele wypracowane dzięki uczeniu maszynowemu pozwalają na stworzenie systemów, dzięki którym samochody bezbłędnie rozpoznają znaki drogowe. Okazuje się jednak, że istnieją metody oszukiwania tychże mechanizmów. Naukowcy, którzy postanowili sprawdzić, jakie są możliwości pod tym kątem nie mają zbyt dobrych wieści. W trakcie badań okazało się, że udało się oszukać systemy rozpoznawania znaków w od 67 do 100 procent przypadków.
A uczyniono to w najprostszy możliwy sposób. Pierwszy wariant zakładał takie "zmodyfikowanie" znaku drogowego, aby był on trudny do odczytania tylko przez maszynę za pomocą specjalnych elementów, które mogłyby wprowadzić w błąd mechanizmy rozpoznawania symboli. Drugi zakładał już całkowite przysłonienie właściwego znaku innym. Tak prosta, fizyczna metoda pozwoliła na wprowadzenie w błąd maszyny i w niektórych przypadkach mogła doprowadzić do poważnego wypadku z udziałem autonomicznego auta. Według wewnętrznego algorytmu, maszyna zachowała się dobrze. Zastosowała się do "obowiązującego" znaku i postąpiła tak, jak mówi kodeks. A wyobrażacie sobie, co by było, gdyby ktoś "mądry" zamienił znak STOP na "Droga z pierwszeństwem przejazdu"? Kolokwialnie, mogłaby być niezła lipa.
Dobrze jednak, że prowadzi się takie badania. To sygnał dla producentów autonomicznych systemów
Powyższe rewelacje to wcale nie argument za tym, by porzucić piękną ideę autonomicznych samochodów. Wręcz przeciwnie - zainteresowanie naukowców tym tematem jest niesamowicie obiecujące. Okazuje się bowiem, że cały czas odkrywamy pewne słabości tego typu mechanizmów, ale wszystko to na szczęście robi się po to, aby stworzyć tak szczelny system, by nic nie było w stanie go zmylić. W oparciu o wyniki wprowadzi się takie zabezpieczenia, które pozwolą na właściwe zachowanie samochodu nawet w sytuacji, gdy znak jest nieczytelny, uszkodzony lub "przerobiony". Dużo w tym pomóc może chmura, za pomocą której można np. zbierać informacje na temat obowiązujących znaków w danych miejscach i porównywaniu ich z tymi, które faktycznie występują na drodze.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu