Na konferencji SIGGRAPH zawsze prezentowane są związane z nowymi technologiami i multimediami wynalazki pochodzące czy to z uniwersytetów z całego świata, czy to z centrów badawczych różnych firm. W tym roku niezwykłym zainteresowaniem otoczone zostały technologie prezentowane przez Disney Research. Dział znany jest z technologii wykorzystywanych przy animacjach, ale także niekonwencjonalnych urządzeń dotykowych.
Powierzchnią dotykową roku okrzyknięty zostać powinien Botanicus Interacticus — system pozwalający zamienić dowolną roślinę w kontroler.
System elektrod umieszczonych w glebie wykrywa kształt rośliny i pozwala określić gdzie została dotknięta oraz może śledzić wiele palców. Jedna z prezentowanych aplikacji wykorzystuje wykrywanie dotknięcia płatków i przesuwania palców po liściach kwiatu i interpretuje je jako dźwięki, zamieniając roślinę w interaktywną zabawkę muzyczną. Z punktu widzenia sensorów nie ma także znaczenia jaka to roślina, ani nawet czy jest to żywy organizm.
Nieco bardziej związana z tym, z czym kojarzy się nam Disney, była prezentacja technologii przechwytujących ruchy twarzy aktorów, aby przełożyć je na ruchy postaci animowanych. Jedna z nich została zaprojektowana specjalnie pod kątem owłosienia na twarzy, czyli brwi, wąsów i brody.
Ogromną zaletą nowego algorytmu Disneya jest również możliwość odtworzenia wyglądu skóry pod owłosieniem. Dla realistycznego odwzorowania mimiki twarzy nie wystarczy bowiem animacja ruchów, trzeba także zadbać o marszczenie się skóry i poradzić sobie z jej nierównomierną elastycznością na twarzy.
Dzięki temu można będzie niezwykle wiernie odtworzyć twarze postaci na filmach, a być może również robić maski z syntetycznej skóry na potrzeby robotyki. W połączeniu z odpowiednio sterowaną mechaniczną głową można osiągnąć niepokojąco realistyczne efekty.