Polska firma tworzy narzędzie do metaverse. Avatary jak żywe

Polska firma tworzy narzędzie do metaverse. Avatary jak żywe

EpicVR tworzy narzędzie na potrzeby Metaverse
EpicVR tworzy narzędzie na potrzeby Metaverse
Źródło zdjęć: © YouTube
18.05.2022 13:24

Polska firma EpicVR tworzy narzędzie, które ma współpracować z Metaverse. Wykorzystana przez nią technologia ma na celu stworzenie realistycznych avatarów, które ułatwią komunikację.

Firma EpicVR z Krakowa ma doświadczenie w tworzeniu aplikacji wykorzystujących wirtualną i rozszerzoną rzeczywistość. Wykorzystuje ona technikę animacji trójwymiarowych modeli nazywaną Mocap. Pozwala ona na realistyczne oddanie ruchów nie tylko kończyn czy całego ciała, ale także twarzy - jej mimiki, ruchu oczu oraz warg.

Nowy produkt jest częścią projektu "Innowacyjne samouczące narzędzie ułatwiające projektowanie trybu multiplayer w aplikacjach VR". NCBR przeznacza na prace nad narzędziem 5 milionów złotych. Efekty pracy będą mogły być wykorzystywane przez użytkowników Metaverse, ale także twórców gier, reklam czy filmów animowanych.

EPICVR - Face Mocap

- Mocap to nie tylko animacja ruchu kończyn, ale też doskonałe odwzorowanie ruchów mimicznych twarzy i ust zgodnie z wypowiadaną sekwencją słów. To pozwala osiągnąć wiarygodność ekspresji modelu 3D, niezależnie od tego, czy jego właściciel wyraża radość, czy zdziwienie. Do produkcji tego typu animacji wykorzystywana jest technologia motion-capture, ciesząca się coraz większą popularnością i stosowana nie tylko w rozrywce, ale też w przemyśle filmowym i szkoleniach. Oznacza ona płynny zapis ruchów, odegranych przez człowieka według scenariusza - zamiast tworzenia ich sekwencji klatka po klatce - mówi Adrian Łapczyński, prezes EpicVR.

Wykorzystanie techniki motion-capture pozwala na znaczne przyspieszenie czasu tworzenia animacji. Wynika to z faktu, że zamiast korzystać z pracy grafików, wystarczy zarejestrować ruchy aktora. Przypomina to poniekąd nagrywanie filmu.

- Aktor wyposażony w odpowiedni sprzęt identyfikujący jego ruchy w przestrzeni odgrywa scenę opisaną w konkretnym projekcie czy scenariuszu. Nagranie animacji twarzy ma miejsce jednocześnie przy użyciu innego, niezależnego sprzętu. Kombinacja tych dwóch technologii sprawia, że po odegraniu scen jesteśmy w stanie uzyskać gotowy i płynnie zaanimowany ruch szkieletu, do którego należy przypisać wybrany przez użytkownika model 3D. Wówczas animacja jest gotowa - wyjaśnia Adrian Łapczyński.

Karol Kołtowski, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (30)