r   e   k   l   a   m   a
r   e   k   l   a   m   a

hUMA: AMD kończy z oddzielną pamięcią dla CPU i GPU

Strona główna Aktualności

Kiedy Sony ujawniło pierwsze szczegóły specyfikacji technicznej Playstation 4, wielu fanów tej konsoli poczuło się nieco rozczarowanych. Po tylu latach tworzenia własnych, ciekawych architektur sprzętowych, Sony poszło w ślady Apple'a, przechodząc do standardowego, nieco nudnego świata x86. Być może jednak w wypadku Playstation 4 nie będzie to tak nudne. Kilka dni temu Mark Cerny, główny projektant PS4 określił architekturę tej konsoli jako PC na dopalaczach, wyjawiając, że to przede wszystkim zasługa jednolitej puli szybkiej pamięci dostępnej zarówno dla procesora głównego jak i graficznego.

Za CPU i GPU w Playstation 4 odpowiada jedna firma – AMD. Do tej pory wiadomo było, że dostarczy ona 8-rdzeniowy, 64-bitowy procesor o nazwie kodowej „Jaguar”, zintegrowany z Radeonem o 18 jednostkach obliczeniowych, zapewniający moc obliczeniową na poziomie 1,84 TFLOPS. Teraz AMD wyjawiło więcej. Co prawda nie ma tu mowy konkretnie o PS4, lecz o samych założeniach architektury procesorów, ale najwyraźniej konsola Sony będzie pierwszym sprzętem na rynku, który pokaże w praktyce, na co pozwala architektura, którą określono akronimem HSA hUMA (Heterogenous System Architecture – heterogenous Uniform Memory Access).

Obecna generacja układów APU od AMD, zawierająca zintegrowany w jednym czipie procesor główny i procesor graficzny, wciąż musi utrzymywać dla nich oddzielne pule pamięci. Gdy więc procesor główny wykryje jakieś zadanie o wysokim potencjale paralelizacji (z którym sam radziłby sobie marnie, a które GPU może wykonać tysiące razy efektywniej), to musi odpowiednie dane skopiować ze swojej pamięci do pamięci procesora graficznego. Gdy zaś procesor graficzny ukończy swoje zadanie, dane muszą być skopiowane z powrotem do pamięci CPU, aby procesor główny mógł na nich dalej operować. Takie przenoszenie danych tam i z powrotem nie jest oczywiście darmowe, zużywa sporo cykli procesora, w zamian nic nie dając. Gdyby

hUMA, której oficjalną premierę zapowiedziano w kolejnej generacji APU o nazwie Kaveri, zmienić ma ten stan rzeczy. Zarówno CPU i GPU dzielić będą pulę fizycznej pamięci i zawartych w niej danych, będą też miały pełen obraz tego, co się dzieje w cache i co wzajemnie robią – jeśli GPU coś zmieni w swoim buforze, CPU będzie o tym „wiedziało”. Co ciekawe, to ujednolicenie rozciąga się także na pamięć wirtualną, np. na dysku SSD czy HD. Co prawda GPU samo nie będzie mogło uzyskiwać do niej dostępu, ale polecając procesorowi pozyskanie danych z takiej pamięci uzyska do nich dostęp w tym samym czasie co CPU.

AMD zapowiada, że hUMA będzie zgodna z popularnymi językami programowania – wykorzystujące ujednolicony dostęp do pamięci aplikacje będzie można pisać w Pythonie, Javie i C++, bez konieczności korzystania ze specjalnych interfejsów programowania. Aplikacjom takim łatwiej będzie korzystać ze szczególnych możliwości poszczególnych rdzeni obliczeniowych APU. Dziś to rdzenie CPU i GPU, ale heterogeniczna architektura sięga dalej, mogą to w przyszłości być też procesory sygnałowe (DSP) czy akceleratory wideo.

Co najważniejsze jednak, hUMA nie kończy się na AMD. Otwartą specyfikację tej architektury opublikuje Fundacja HSA, wśród której członków oprócz AMD znaleźć można ARM, Samsunga, Texas Instruments czy Qualcomm. Jest więc szansa na to, że architektura taka upowszechni się także na urządzeniach mobilnych, poza światem x86.

r   e   k   l   a   m   a
© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.