r   e   k   l   a   m   a
r   e   k   l   a   m   a

Siri przemówi bardziej ludzkim głosem dzięki głębokiemu uczeniu

Strona główna AktualnościOPROGRAMOWANIE

Nawet jeśli ktoś nie ma iPhone’a, z pewnością gdzieś już słyszał głos Siri – wirtualnej asystentki, która pomaga obsługiwać smartfon głosem i załatwia za użytkownika różne sprawy. Głos ten jest przyjemny, ale intonacji i akcentowaniu zdań daleko do naturalnej mowy. Wystarczy posłuchać:

Będzie jednak lepiej. Dzięki maszynowemu uczeniu Siri w iOS 10 opanuje mówienie w sposób przypominający naturalny. Apple pracuje nad siecią neuronową, która nauczy się melodii zdań, a także wymawiania i akcentowania nazwisk i nazw własnych.

Nie bez powodu piszę o nazwiskach. Niedawno aktorka i piosenkarka, Barbara Streisand, zadzwoniłado Tima Cooka, by powiedzieć mu, że Siri źle wymawia jej nazwisko. Pani Streisand nie jest jedyną osobą, której nie odpowiada „robotyczny” sposób mówienia Siri, ale taka krytyka brzmi dużo lepiej z ust osoby znanej.

r   e   k   l   a   m   a

CEO Apple’a obiecał, że sprawa zostanie naprawiona w najbliższej wersji systemu. Oznacza to zapewne, że już od dłuższego czasu Apple nad tym pracuje i jest blisko rozwiązania problemu… a w zasadzie przygotowania podstaw pod naukę mówienia dla Siri, bo takiego problemu nie da się rozwiązać pojedynczą aktualizacją.

Apple wykorzysta posiadane już licencje na sztuczne sieci neuronowe. Tom Gruber, kierujący rozwojem „edukacji” Siri, zapewnił, że mimo że odpowiedzi asystentki wciąż będą składane z bazy nagranych słów, dzięki głębokiemu uczeniu będą płynniejsze, gładsze i będą brzmiały bardziej ludzko. To pokazuje, jak z czasem rosną oczekiwania użytkowników względem urządzeń – kiedyś wystarczyła reakcja na ustalone komendy, potem przyszła pora na interpretację naturalnej mowy, a teraz klienci oczekują, że maszyna będzie brzmiała jak człowiek. Warto jednak zauważyć, że ludzie mają pewne obawy, gdy widzą maszynę zbyt podobną do człowieka. Może lepiej żeby Siri mówiła tak, jak mówi teraz.

Siri działa na systemie sieci neuronowych od 30 lipca 2014 roku, co znacznie poprawiło jej zdolności w zakresie interpretacji poleceń i pytań. Innym projektem, który intensywnie korzysta ze sztucznych sieci neuronowych, jest Apple Pencil – oprogramowanie odpowiedzialne za jego obsługę „uczy się”, kiedy interpretować dotyk palców, a kiedy tylko rysik. Maszynowo uczą się też aplikacje prozdrowotne na Apple Watchu i fotograficzne, rozpoznające twarze.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.