krzycząca kobieta
2

Żeby wytrenować dobre AI, trzeba je wystawić na krzyczących klientów

Natknąłem się na ciekawy artykuł na temat trenowania sztucznych asystentów w obsłudze swoich ludzkich klientów. W momencie kiedy podejmujemy interakcje z czymś, co nie jest człowiekiem i oczywiście mamy tego świadomość, zmieniamy swoje zachowanie w taki sposób, żeby dopasować je do sytuacji. Czy ma to jakieś znaczenie w trenowaniu asystentów AI?

Ludzie i asystenci głosowi

Jeżeli ktoś chce zadać pytanie asystentowi głosowemu jak np. Siri czy Alexa, wtedy mamy do czynienia z sytuacją, w której człowiek będzie specjalnie zmieniał swój głos i formułował zdania w nietypowy sposób (zupełnie inny niż podczas normalnej interakcji z drugim człowiekiem), żeby wspomniany asystent mógł go dobrze zrozumieć. To szczególny rodzaj zachowania, zarezerwowany dla interakcji człowiek-maszyna, więc pytanie brzmi, czy w przypadku trenowania asystentów głosowych, chcemy je uczyć takiego stylu, czy może jednak mają one być przystosowane do czegoś znacznie bardziej naturalnego?

Naprawdę dobra obsługa klienta ze strony AI

Przykład podany na VentureBeat dotyczy pytania o hotel, czyli ktoś zwracający się do asystenta głosowego prawdopodobnie powie: „gdzie jest najbliższy hotel Hyatt?”. Co jednak w przypadku kiedy będzie przed nami człowiek z krwi i kości, któremu możemy zadać podobne pytanie? Wtedy oczywiście będzie to coś na zasadzie „Myślałem żeby znaleźć jakiś Hyatt w okolicy i zostać tam na parę nocy. Potrzebuję dużego łóżka z widokiem na miasto. Gdzie najbliżej mogę na to liczyć?”.

Oczywiście to zrozumiałe, że nie budujemy zdań w taki sposób zadając pytanie asystentowi ze smartfona, ponieważ najzwyczajniej w świecie by nas nie zrozumiał. Jednak gdybyśmy chcieli, żeby ten dzień kiedyś nadszedł, pewnie wypadałoby wykorzystywać uczenie maszynowe w połączeniu z informacjami będącymi przykładem najprawdziwszej ludzkiej mowy, a nie tej specjalnie uproszczonej. Właśnie dlatego prawdziwy trening programu do obsługi klienta zaczyna się np. po wystawieniu go na interakcję z prawdziwymi klientami, którzy będą sfrustrowani, będą krzyczeć i będą operować skomplikowanymi wypowiedziami bez taryfy ulgowej dla maszyny.

Najlepiej, żeby zdenerwowani klienci zalewali AI masą niepotrzebnych informacji, które trzeba umiejętnie odfiltrować, ponieważ tylko ich niewielka część stanowi istotę problemu, a reszta to np. wylewanie z siebie emocji, narzekanie i gadanie o jakichś nieistotnych dla sprawy zagadnieniach. Nie myślałem o tym w ten sposób, ale jeśli ktoś ma wytrenować bota do obsługi klienta z prawdziwego zdarzenia, to niezbędny jest tego typu trening.

ai laser

Mistrz interakcji z ludźmi w przygotowaniu

Niedawno pisałem np. o robotach, które mają się lepiej zachowywać w tłumie ludzi:

Roboty znajdujące się w środowisku wypełnionym ludźmi zawsze mają czujniki, dzięki którym w nikogo nie wjadą. Jednak diabeł tkwi w szczegółach, dlatego ludzie z University of Toulouse starają się dopracować sposób nawigowania jednego z robotów. Chcą, żeby szanował przestrzeń osobistą ludzi wynoszącą 40 cm – na filmiku widać, że odjeżdża kawałek dalej od człowieka, nawet jeśli nie był na torze kolizyjnym. Inna sprawa to odpowiednie reagowanie na niespodziewane zmiany w zachowaniu człowieka. Robot miał zjechać dalej na lewo, ale w tej samej chwili człowiek postanowił mu ustąpić, przez co mogli się zderzyć. Zamiast np. gwałtownie zahamować w obawie przez niespodziewaną kolizją, robot po prostu na bieżąco wyliczył nową trasę. Źródło.

Wydaje się, że to zupełnie inna sytuacja, jednak jest to po prostu kolejny przykład tego, jak wiele pracy należy włożyć w oprogramowanie i roboty przyszłości, mające funkcjonować pośród ludzi. Zamiast nastawiać się na jakąś taryfę ulgową, trzeba powoli tworzyć coś, co bez jakichkolwiek zgrzytów wkomponuje się w środowisko wypełnione ludźmi. Nie wystarczy, żeby robot na nas nie wpadał, ponieważ powinien jeździć w taki sposób, żebyśmy nie odczuli dyskomfortu (np. zawsze pozostawić nam trochę więcej przestrzeni, płynnie wymijać przechodniów). Tak samo nie wystarczy, żeby wirtualny asystent nas jedynie rozumiał… powinien sobie radzić z każdym rozmówcą, nawet takim niemającym świadomości, że nie rozmawia z drugim człowiekiem.

Źródło

  • mall

    Mam niejakie wrażenie, że problem zostanie rozwiązany klasycznymi administracyjnymi metodami:
    – za błędy klienta w interpretacji firma nie odpowiada;
    – klient ponosi konsekwencje finansowe swojej niejasnej komunikacji;
    – w razie problemów sprawę oddaje się do automatycznej pozytywnej reklamacji (oszczędność czasu) lub automatycznej negatywnej odpowiedzi i sugestii skierowania do sądu.

    • Mailosz

      -Chcę się widzieć z menedżerem!
      -Chwileczkę, wczytuję „Menedżer zadań”