Przyzwyczailiśmy się już do samochodów, które rozumieją, co do nich mówimy. Eksperci przewidują, że w przyszłości mogą one również rozumieć, co czujemy – nawet wówczas, gdy nic nie mówimy.
Szacuje się, że do roku 2022 blisko 90 procent nowych samochodów będzie oferować funkcję rozpoznawania mowy*. Kolejnym krokiem może być stworzenie systemu, który będzie rozpoznawał niewielkie zmiany w wyrazie twarzy prowadzącego, a także uwzględniał modulację głosu, aby ułatwić obsługę samochodu.
Zaawansowane systemy – wyposażone w wyrafinowane mikrofony i pokładowe kamery – mogą zapamiętywać piosenki, których słuchamy, gdy jesteśmy zestresowani, a także rozpoznawać sytuacje, w których chcemy przebywać w ciszy. Odpowiedni nastrój może tworzyć również oświetlenie wnętrza.
„Jesteśmy na dobrej drodze do opracowania empatycznego samochodu, który opowie Ci dowcip, aby Cię rozweselić, wspomoże Cię poradą, gdy będziesz tego potrzebować, przypomni Ci o urodzinach i pomoże Ci się skupić podczas długiej podróży”, powiedziała Fatima Vital, dyrektor Marketing Automotive z firmy Nuance Communications, która pomogła Fordowi opracować system rozpoznawania mowy SYNC.
Szacuje się, że do roku 2022 w 75 procentach nowych samochodów dostępny będzie system rozpoznawania mowy działający w chmurze*, a przyszłe systemy mogą stać się osobistymi asystentami kierowcy, przyjmując od niego różne zamówienia i umawiając terminy spotkań.
W filmie „Ona”, system rozpoznawania mowy Samantha, któremu głosu użyczyła Scarlett Johansson, spełnia wszystkie prośby Theodore’a Twombly’ego, rozpoznając z dużą precyzją jego nastroje, potrzeby i pragnienia – wszystko to wyłącznie na podstawie jego głosu. Niedługo nasze samochody będą potrafiły działać w podobny sposób.
Tego lata opracowany przez Forda pokładowy system łączności SYNC 3 umożliwi korzystanie z pomocy stworzonej przez Amazon wirtualnej asystentki Alexy, oferując do wyboru 23 języki i wiele lokalnych akcentów. Dzięki dostępowi do danych przechowywanych w chmurze, samochody przyszłości pozwolą większej liczbie kierowców na komunikację w ich ojczystych językach.
„Polecenia głosowe, jak na przykład ‘chcę jeść’ lub ‘chcę kawę’ już teraz sprawiają, że SYNC 3 pełni rolę osobistego asystenta”, powiedziała Mareike Sauer, inżynier ds. sterowania głosowego, Connectivity Application Team, Ford of Europe. „Kolejna odsłona tego rozwiązania pozwoli kierowcy nie tylko używać swojego ojczystego języka i akcentu, ale również mówić w bardziej naturalny sposób.”
Apple CarPlay™ pozwala w prosty sposób korzystać z iPhone’a za pośrednictwem pokładowego ekranu dotykowego, dając użytkownikom dostęp do układu obsługi głosowej Siri Eyes-Free, jak również do usług Apple Maps i Apple Music, telefonu i wiadomości oraz różnych zewnętrznych aplikacji. Z kolei Android Auto™ oferuje Mapy Google na ekranie samochodu, a także głosowe sterowanie połączeniami telefonicznymi i wiadomościami*.
Projekt badawczy prowadzony obecnie przez Forda we współpracy z uczelnią techniczną RWTH w Akwizgranie zakłada wykorzystanie wielu mikrofonów w celu poprawy jakości przetwarzania mowy przy zredukowaniu negatywnego wpływu zewnętrznych czynników i potencjalnych zakłóceń. Zdaniem Nuance, w ciągu najbliższych dwóch lat systemy rozpoznawania mowy będą potrafiły komunikować się z kierowcą w następujący sposób: „Czy chciałbyś zamówić kwiaty z okazji Dnia Matki?”, „Czy mam wybrać mniej zatłoczoną, ale dłuższą drogę do domu?”, „Kończy Ci się Twoja ulubiona czekolada, a w Twoim ulubionym sklepie zostało jeszcze kilka tabliczek. Chcesz się zatrzymać po drodze i zrobić zakupy?”
W przyszłości system rozpoznawania gestów i monitorowania oczu kierowcy pozwoli na odebranie połączenia telefonicznego poprzez skinięcie głową, dostosowanie poziomu głośności systemu audio poprzez wykonanie szybkiego gestu odzwierciedlającego obracanie, a także zaprogramowanie nawigacji poprzez spojrzenie na cel podróży na mapie.
Czy istnieje więc niebezpieczeństwo – jak w filmie „Ona” – że zakochamy się w swoich zaawansowanych systemach rozpoznawania mowy?
„Wiele osób kocha swoje samochody, a wraz z nadejściem nowych systemów pokładowych możemy się spodziewać dalszego zacieśniania relacji”, powiedział Dominic Watt, starszy wykładowca, Wydział Lingwistyki i Nauk o Języku, University of York. „Wkrótce samochód stanie się naszym asystentem, towarzyszem podróży i życzliwym słuchaczem, a my będziemy mogli mu powiedzieć wszystko i o wszystko się go zapytać, dlatego wielu z nas zapomni, że rozmawia z maszyną.”
Podczas kongresu Mobile World Congress w Barcelonie, największego na świecie spotkania branży mobilnej, Ford ujawni nowe rozwiązania z zakresu mobilności i łączności.
Źródło: www.mototarget.pl