Polska firma tworzy narzędzie do metaverse. Avatary jak żywe

EpicVR tworzy narzędzie na potrzeby Metaverse
EpicVR tworzy narzędzie na potrzeby Metaverse
Źródło zdjęć: © YouTube

18.05.2022 13:24

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Polska firma EpicVR tworzy narzędzie, które ma współpracować z Metaverse. Wykorzystana przez nią technologia ma na celu stworzenie realistycznych avatarów, które ułatwią komunikację.

Firma EpicVR z Krakowa ma doświadczenie w tworzeniu aplikacji wykorzystujących wirtualną i rozszerzoną rzeczywistość. Wykorzystuje ona technikę animacji trójwymiarowych modeli nazywaną Mocap. Pozwala ona na realistyczne oddanie ruchów nie tylko kończyn czy całego ciała, ale także twarzy - jej mimiki, ruchu oczu oraz warg.

Nowy produkt jest częścią projektu "Innowacyjne samouczące narzędzie ułatwiające projektowanie trybu multiplayer w aplikacjach VR". NCBR przeznacza na prace nad narzędziem 5 milionów złotych. Efekty pracy będą mogły być wykorzystywane przez użytkowników Metaverse, ale także twórców gier, reklam czy filmów animowanych.

EPICVR - Face Mocap

- Mocap to nie tylko animacja ruchu kończyn, ale też doskonałe odwzorowanie ruchów mimicznych twarzy i ust zgodnie z wypowiadaną sekwencją słów. To pozwala osiągnąć wiarygodność ekspresji modelu 3D, niezależnie od tego, czy jego właściciel wyraża radość, czy zdziwienie. Do produkcji tego typu animacji wykorzystywana jest technologia motion-capture, ciesząca się coraz większą popularnością i stosowana nie tylko w rozrywce, ale też w przemyśle filmowym i szkoleniach. Oznacza ona płynny zapis ruchów, odegranych przez człowieka według scenariusza - zamiast tworzenia ich sekwencji klatka po klatce - mówi Adrian Łapczyński, prezes EpicVR.

Wykorzystanie techniki motion-capture pozwala na znaczne przyspieszenie czasu tworzenia animacji. Wynika to z faktu, że zamiast korzystać z pracy grafików, wystarczy zarejestrować ruchy aktora. Przypomina to poniekąd nagrywanie filmu.

- Aktor wyposażony w odpowiedni sprzęt identyfikujący jego ruchy w przestrzeni odgrywa scenę opisaną w konkretnym projekcie czy scenariuszu. Nagranie animacji twarzy ma miejsce jednocześnie przy użyciu innego, niezależnego sprzętu. Kombinacja tych dwóch technologii sprawia, że po odegraniu scen jesteśmy w stanie uzyskać gotowy i płynnie zaanimowany ruch szkieletu, do którego należy przypisać wybrany przez użytkownika model 3D. Wówczas animacja jest gotowa - wyjaśnia Adrian Łapczyński.

Karol Kołtowski, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Komentarze (30)
Zobacz także