hUMA: AMD kończy z oddzielną pamięcią dla CPU i GPU

Strona głównahUMA: AMD kończy z oddzielną pamięcią dla CPU i GPU
02.05.2013 18:19
hUMA: AMD kończy z oddzielną pamięcią dla CPU i GPU
bDUjRBGu

Kiedy Sony ujawniło pierwsze szczegóły specyfikacji technicznejPlaystation 4, wielu fanów tej konsoli poczuło się niecorozczarowanych. Po tylu latach tworzenia własnych, ciekawycharchitektur sprzętowych, Sony poszło w ślady Apple'a, przechodzącdo standardowego, nieco nudnego świata x86. Być może jednak wwypadku Playstation 4 nie będzie to tak nudne. Kilka dni temu MarkCerny, główny projektant PS4 określił architekturę tej konsolijako PC na dopalaczach, wyjawiając, że to przede wszystkimzasługa jednolitej puli szybkiej pamięci dostępnej zarówno dlaprocesora głównego jak i graficznego.Za CPU i GPU w Playstation 4 odpowiada jedna firma – AMD. Do tejpory wiadomo było, że dostarczy ona 8-rdzeniowy, 64-bitowy procesoro nazwie kodowej „Jaguar”, zintegrowany z Radeonem o 18jednostkach obliczeniowych,zapewniający moc obliczeniową na poziomie 1,84 TFLOPS. Teraz AMDwyjawiło więcej. Co prawda nie ma tu mowy konkretnie o PS4, lecz osamych założeniach architektury procesorów, ale najwyraźniejkonsola Sony będzie pierwszym sprzętem na rynku, który pokaże wpraktyce, na co pozwala architektura, którą określono akronimemHSA hUMA (Heterogenous System Architecture – heterogenousUniform Memory Access). [img=amd]Obecnageneracja układów APU od AMD, zawierająca zintegrowany wjednym czipie procesor główny i procesor graficzny, wciąż musiutrzymywać dla nich oddzielne pule pamięci. Gdy więc procesorgłówny wykryje jakieś zadanie o wysokim potencjale paralelizacji(z którym sam radziłby sobie marnie, a które GPU może wykonaćtysiące razy efektywniej), to musi odpowiednie dane skopiować zeswojej pamięci do pamięci procesora graficznego. Gdy zaś procesorgraficzny ukończy swoje zadanie, dane muszą być skopiowane zpowrotem do pamięci CPU, aby procesor główny mógł na nich dalejoperować. Takie przenoszenie danych tam i z powrotem nie jestoczywiście darmowe, zużywa sporo cykli procesora, w zamian nic niedając. Gdyby hUMA, której oficjalną premieręzapowiedziano w kolejnej generacji APU o nazwie Kaveri,zmienić ma ten stan rzeczy. Zarówno CPU i GPU dzielić będą pulęfizycznej pamięci i zawartych w niej danych, będą też miałypełen obraz tego, co się dzieje w cache i co wzajemnie robią –jeśli GPU coś zmieni w swoim buforze, CPU będzie o tym„wiedziało”. Co ciekawe, to ujednolicenie rozciąga się takżena pamięć wirtualną, np. na dysku SSD czy HD. Co prawda GPU samonie będzie mogło uzyskiwać do niej dostępu, ale polecającprocesorowi pozyskanie danych z takiej pamięci uzyska do nich dostępw tym samym czasie co CPU.AMD zapowiada, że hUMA będziezgodna z popularnymi językami programowania – wykorzystująceujednolicony dostęp do pamięci aplikacje będzie można pisać wPythonie, Javie i C++, bez konieczności korzystania zespecjalnych interfejsów programowania.Aplikacjom takim łatwiej będzie korzystać ze szczególnychmożliwości poszczególnych rdzeni obliczeniowych APU. Dziś tordzenie CPU i GPU, ale heterogeniczna architektura sięga dalej, mogąto w przyszłości być też procesory sygnałowe (DSP) czyakceleratory wideo. [img=huma]Co najważniejsze jednak, hUMAnie kończy się na AMD. Otwartą specyfikację tej architekturyopublikuje FundacjaHSA, wśród której członków oprócz AMD znaleźć można ARM,Samsunga, Texas Instruments czy Qualcomm. Jest więc szansa na to, żearchitektura taka upowszechni się także na urządzeniach mobilnych,poza światem x86.

bDUjRBFN
Udostępnij:
bDUjRBGL