Po przeprowadzeniu ponad 500 tysięcy rozmów przez konwersacyjne boty APIFONICA z prospektami, dane pokazują, że 90% osób odbiera telefon od inteligentnych asystentów głosowych, a 70% z nich odpowiada na wszystkie pytania podczas rozmowy, która trwa średnio około 4 minut. Zatem, ludzie nie postrzegają rozmów z voicebotami za trudne lub nieprzyjemne. Aktualnie 48% klientów lubi rozmawiać z konwersacyjnym AI, a 71% twierdzi, że chętnie skorzystałoby z takiego rozwiązania, gdyby miało to poprawić ich doświadczenia zakupowe, wynika z badań firmy Verint. Poza tym, we wszystkich powyższych przypadkach użycia voiceboty kontaktują się z potencjalnymi klientami, którzy już coś zamówili i oczekują odpowiedzi od firmy. Co ważne, spodziewają się szybkiego kontaktu, a voicebot może skontaktować się z nimi w momencie, gdy zostawią zapytanie.
Ale w jaki sposób boty komunikują się z ludźmi?
Voiceboty wykorzystują do rozmów z potencjalnymi klientami wiele zaawansowanych mechanizmów, procesów, języków i systemów, w tym uczenie maszynowe (ML), automatyczne rozpoznawanie mowy (ASR) i przetwarzanie języka naturalnego (NLU). Dzięki ML i NLU inteligentny asystent głosowy rozumie naturalną mowę i odpowiada tak, jak zrobiłby to człowiek. Voicebot rozumie ludzi poprzez intencje. Wyobraźmy sobie sytuację, w której konwersacyjne AI musi zakwalifikować lead, który zamówił kurs języka angielskiego w szkole internetowej. Voicebot musi zrozumieć poziom aktualnej wiedzy, jaką posiada prospekt, aby przypisać go lub ją do grupy szkoleniowej. W tym celu zapyta, czy potencjalny klient uczył się wcześniej języka angielskiego, a jeśli tak, to przez ile lat. Jednak na to pytanie lead może odpowiedzieć na wiele sposobów, od “nigdy” po “no cóż, miałem kiedyś zajęcia w szkole, ale nie przykładałem się wtedy zbytnio do nauki, więc nie wiem”.
Jak inteligentny asystent głosowy może to zrozumieć? Poprzez słowa kluczowe, które wyrażają intencję, gdzie “nigdy” i “kiedyś miałem zajęcia” są jednymi z nich. Wszystkie te określenia, które człowiek może udzielić, nazywane są “frazami treningowymi”. Innymi słowy, są to przewidywane frazy, które potencjalny klient może powiedzieć. Kiedy wypowiedź użytkownika pokrywa się z intencją, którą zna voicebot, wtedy wie on, jak zareagować i co powiedzieć.
Ale skąd wiemy, co powie człowiek?
Nie wiadomo co dokładnie odpowie potencjalny klient, ale możemy to przewidzieć, bazując na społecznie skonstruowanych normach interakcji między ludźmi. A są to najczęściej spotykane zachowania, czy też wzorce zachowań, które są akceptowane lub przestrzegane przez większość społeczeństwa. Przyjrzyjmy się przykładowi z dziedziny analizy konwersacji.
– Wyobraźmy sobie sytuacje, w której jedna osoba zaprasza drugą na kawę. Wówczas, zapraszający powiedziałbym: Czy chciałabyś umówić się na kawę w przyszłym tygodniu? Ponieważ jest to zaproszenie, zapraszający oczekiwałby, że albo zaproszenia zostanie przyjęte, mówiąc, np.: “Tak, bardzo chętnie”, albo zostanie odrzucone, np. komunikując to w ten sposób: “Przykro mi, ale w przyszłym tygodniu jestem szalenie zajęty”. Tak więc, bazując na wzorcach konwersacji, gdzie po zaproszeniu następuje akceptacja lub odrzucenie, voicebot zostanie „wytrenowany”, a tak naprawdę zaprojektowany, aby rozumiał takie intencje i odpowiedzi „tak” lub „nie”. A w ich obrębie otrzymałby wiele różnych sposobów, w jaki można wyrazić akceptację i odrzucenie. Tak więc, ogólnie rzecz biorąc, projektant voicebota może przewidzieć, co człowiek może powiedzieć. – mówi Bartosz Malinowski, head of voicebot department w APIFONICA.com.
A co jeśli człowiek powie coś nieoczekiwanego? Zdarzają się również takie sytuacje, kiedy potencjalny klient wypowie nieprzewidzianą frazę lub zdanie. Coś, czego voicebot nie będzie w stanie rozpoznać i zrozumieć. Kiedy tak się stanie, należy pomóc człowiekowi wrócić na właściwą – zaprojektowaną, zrozumiałą dla inteligentnego asystenta głosowego, ścieżkę odpowiedzi. Można to osiągnąć, m.in. poprzez podpowiadanie użytkownikowi zwrotów związanych z obsługą sytuacji.
Integracja z najpopularniejszym AI
Siłą najlepszych voicebotów na rynku jest wykorzystanie możliwości sztucznej inteligencji (SI). AI umożliwia systemom technicznym postrzeganie ich otoczenia, radzenie sobie z tym, co postrzegają i rozwiązywanie problemów, działając w kierunku osiągnięcia określonego celu. Komputer odbiera dane już przygotowane lub zebrane za pomocą wybranych czujników, np. telefonu, przetwarza je i reaguje. Systemy SI są w stanie dostosować swoje zachowanie, analizując skutki wcześniejszych działań i działając w dużej mierze autonomicznie. Dlatego też, Apifonica połączyła siły swojego voicebota, opartego na rozwiązaniu AI, z najpopularniejszym chatbotem Chat GPT. A to oznacza, że teraz ten inteligentny asystent głosowy otrzymał nowe możliwości rozwoju, większą efektywność działań oraz zwiększył szybkość samodzielnego uczenia się.
– Według ostrożnych estymacji oceniamy, że integracja naszego voicebota z Chat GPT, może zwiększyć w bardzo krótkim czasie poziom zadowolenia klientów z dotychczasowych 75% do 90-95%. Pozwoli to także zmniejszyć liczbę połączeń przekazywanych agentom z obecnych 15% do 5%, zwiększając potencjał automatyzacji i efektywność przepływu pracy. Możemy również mówić o poprawie zdolności i szybkości uczenia się naszego voicebota. W przypadku jednego z naszych klientów, integracja pozwoliła na poprawę wyników dwukrotnie, właśnie dzięki procesowi samouczenia się voicebota. – podkreśla Bartosz Malinowski z APIFONICA.com.
Zatem, voiceboty nie tylko wspierają firmy w realizacji potrzeb klientów, ale przede wszystkim znacząco podnoszą poziom ich zadowolenia z obsługi oraz szybkości reakcji. A to wszystko przekłada się na polepszenie doświadczeń konsumentów. A informacje o tym, że jakoby ludzie bali się kontaktu z botami, w świetle danych rynkowych, należy uznać za stereotypy.
Źródło: APIFONICA.com
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS