Wygląda na to, że Google zamierza mocno dozbroić swoje mechanizmy rozpoznawania mowy. Okazuje się, że gigant technologiczny prosi ludzi z Zespołem Downa o przekazaniu mu próbki swojego głosu: dzięki temu rozpoznawanie mowy będzie znacznie lepiej radzić sobie z osobami, które z różnych powodów mają problem z artykułowaniem wyrazów.
Project Understood zakłada, że rozpoznawanie mowy, którym dysponuje Google będzie w stanie nie tylko doskonale rozpoznawać mowę zdrowych osób, ale również wszystkich tych, którzy z jakiegoś powodu nie radzą sobie z mówieniem tak dobrze jak większość populacji. Mowa tutaj nie tylko o chorych cierpiących z powodu Zespołu Downa, ale również niepełnosprawnych, których zdolność mówienia charakteryzuje się defektem z zupełnie innego powodu (np. z powodu neurodegeneracji czy też choroby demielinizacyjnej). Zupełnie inaczej będzie przecież mówić osoba chora na Parkinsona, a inaczej człowiek, który w młodości zachorował na stwardnienie rozsiane. Sztuczna inteligencja musi nauczyć się takich wzorców po to, aby lepiej radzić sobie z niewyraźnymi komendami wydawanymi przez osoby chore.
Czytaj więcej: Mała firma pozywa Google
Google w ramach Project Understood współpracuje z Canadian Down Syndrome Society. Organizacja ta nie tylko wspiera wszelkie przedsięwzięcia naukowe mające na celu integrację osób cierpiących na Zespół Downa w społeczeństwie, ale również aktywnie działa na rzecz świadomości społeczeństwa w zakresie tej choroby. Google nie mogło znaleźć lepszego partnera do swoich badań.
Bardzo często osoby cierpiące z powodu Zespołu Downa mają dosyć duże języki, a także przeróżne wady aparatu artykulacyjnego, które dodatkowo powodują, że wymawiane przez nie wyrazy są mniej wyraźne. Jak wynika z wewnętrznych badań Google, średnio co trzecie słowo jest rozpoznawane niepoprawnie przez AI w momencie, gdy dane wprowadza osoba chora na Zespół Downa. Celem specjalistów jest spowodowanie, że ludzie chorzy będą w stanie bezproblemowo komunikować się z nowoczesnymi interfejsami głosowymi.
Potrzebne jest około 500 próbek. Dotychczas pozyskano około 300
To całkiem spory materiał badawczy - 500 próbek wystarczy "na początek" i najpewniej będzie potrzeba ich jeszcze nieco więcej. Naukowcy mają nadzieję, że dzięki temu rozpoznawanie mowy przez Google będzie znacznie lepiej radzić sobie z komendami wprowadzanymi przez osoby chore - w przyszłości również przez wszystkich tych, których narząd mowy nie funkcjonuje prawidłowo z przeróżnych względów.
Cieszy mnie to, bo sam mocno kibicuję wszelkim inicjatywom, które mają na celu ułatwienie życia osobom niepełnosprawnym. Dzięki postępowi technologicznemu, tacy ludzie są coraz mniej wyobcowani ze społeczeństwa, podobnie jak wszyscy mogą prowadzić szczęśliwe życie bez większych kompromisów. Musimy jednak wiele zrobić ku temu, aby nowe technologie przede wszystkim odpowiadały na potrzeby osób niepełnosprawnych. Mówi się wiele o tym, że interfejsy głosowe (i w domyśle również te, które będą rozpoznawać komendy wprost z mózgu) mogą być na tym polu niemałym przełomem. Cóż, mnie pozostaje jedynie kibicować wszelkim takim przedsięwzięciom.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu