r   e   k   l   a   m   a
r   e   k   l   a   m   a

Przełomowe techniki renderowania skóry mają wyprowadzić grafikę 3D z doliny niesamowitości

Strona główna AktualnościOPROGRAMOWANIE

Dolina niesamowitości, czyli problem z z odbiorem przez obserwatora sztucznych wizerunków człowieka, które są bardzo podobne do żywych ludzi – męczy zarówno projektantów robotów jak i twórców gier wideo. Niewielkie szczegóły, odróżniające niemal perfekcyjne repliki czy wizerunki ludzkiego ciała od żywych istot, okazywały się wywoływać uczucia dyskomfortu, a nawet strachu. Rozwiązania są dwa: albo iść w stronę umownych, komiksowych reprezentacji ludzkich form, albo też spróbować przekroczyć dolinę niesamowitości, tworząc perfekcyjną replikę ludzkiej postaci. Niedawno pisaliśmy o pomyśle na zapewnienie takiego daleko posuniętego realizmu przy renderowaniu włosów w grafice 3D, a teraz wypada wspomnieć o równie istotnym osiągnięciu, dotyczącym ludzkiej skóry.

Zespół badaczy z University of South California, pod przewodnictwem Abhijeeta Ghosha i Paula Devebeca, opracował metodę zwiększenia realizmu twarzy w grafice komputerowej, która skupia się na jednym z najtrudniejszych wyzwań: wiarygodnym odwzorowaniu ludzkiej skóry. Do tej pory modelowanie odbić światła od tej niezwykle skomplikowanej powierzchni, dalekiej przecież od jednolitości, pokrytej siecią drobnych zmarszczek, cebulek włosów, prześwitujących naczyń krwionośnych, a czasem (o zgrozo!) nawet pryszczy, było bardzo trudne, a efekty, jak wiemy z nawet najlepszych wizualnie filmów czy gier aspirujących do fotorealizmu, pozostawiały wiele do życzenia.

Opracowana przez Ghosha i Devebeca metoda to wielki skok naprzód w tej dziedzinie. Zbudowali oni wysoce precyzyjny trójwymiarowy model skóry, wykorzystujący fotograficzne próbki z okolic podbródka, policzków i czoła, w rozdzielczości pozwalającej rozróżnić obiekty o rozmiarach dziesięciu mikrometrów. W modelu tym każda komórka skóry zajmowała trzy piksele. Zamiast zaś modelować pojedynczy promień światła odbijający się od złożonej struktury takiego modelu, podzielili światło na cztery promienie, z których jeden odbija się od naskórka, a pozostałe trzy wnikają w skórę na różne głębokości, ulegając rozproszeniu przed odbiciem. W efekcie uzyskano fragment realistycznie wyglądającej skóry, wraz z porami i mikroskopijnymi zmarszczkami. Fragment ten został zwielokrotniony, wypełniając powierzchnię całej wymodelowanej twarzy. Jak możecie zobaczyć na poniższym wideo, efekt jest naprawdę spektakularny:

Rozwiązanie to ma zawitać zarówno do kina jak i gier. Metoda Ghosha i Devebeca, ma pozwolić na przyspieszenie tworzenia tekstur skóry na potrzeby filmów, gdzie dziś robi się to ręcznie (np. w „Awatarze” Jamesa Camerona graficy mozolnie dodawali detale powierzchni skóry do ciał niebieskich Na'vi). W konsekwencji techniki takie powinny stać się dostępne także dla filmów o mniejszych budżetach. Z kolei w świecie gier pracami badaczy z USC zainteresowało się Activision: wspólnie pracują nad projektem Digital Ira, mającym na celu stworzenie oprogramowania do generowania fotorealistycznych wirtualnych aktorów, dysponując przy tym mocą obliczeniową nie superkomputerów, a „zaledwie” współczesnych konsol.

Ciekawostką może być też zainteresowanie branży kosmetycznej – Avon finansuje badania Ghosha, mające na celu ustalenie, czy takie wirtualne skóry nie mogą być wykorzystane do symulacji zachowania różnych środków do makijażu, tak by w przyszłości wirtualny doradca mógł klientce pokazać, jak będzie wyglądała po wykorzystaniu danego podkładu, cienia czy szminki.

r   e   k   l   a   m   a
© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.