Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

Pentium 4 – wspomnienie intelowskiej czkawki

Zanim Intel stał się (na nowo) niekwestionowanym liderem w dziedzinie procesorów dla PC, sytuacja była o wiele bardziej skomplikowana. Dziś nie mamy wątpliwości: kupujemy płytę główną dowolnego producenta, a na niej jest chipset Intela i socket, do którego pasuje tylko procesor Intela. Kupowanie platformy opartej o AMD uchodzi za zbędny, niesłyszany przez nikogo manifest i oczywiście skazywanie się na niekończącą się, nierówną walkę ze sterownikami. Za absolutną niezarządzalność i pasmo problemów z OpenCL będę nienawidzić AMD jeszcze przez wiele lat, zanim dam mu drugą szansę. Bardzo często w technicznej wyobraźni „prawie-fachowców”, AMD jest uznawane wręcz za „podróbę” Intela, niewartą zachodu. Czyli wszystko jest tak, jak przed wiekami.

W latach osiemdziesiątych, AMD było firmą, której zlecano tworzenie tańszych odpowiedników znanych układów. A więc z definicji nie mogło być liderem rynku. Zabawnym jest fakt, że taki dwójpodział jest w istocie zasługą IBM, który, dość staroświecko (co nie znaczy błędnie!) wymuszał istnienie co najmniej dwóch dostawców dla swoich kluczowych komponentów. Dlatego 8088 był produkowany przez Intela i AMD jednocześnie. Rola „drugich skrzypiec” gwarantuje mimo wszystko znaczny napływ pieniędzy, co z kolei pozwala inwestować w kapitał intelektualny. Dlatego też firmie Advanced Micro Devices czasem coś się udawało. Na przykład układ Am386 (znacznie tańszy, niż i80386), lub Am486 (podejrzanie mocniejszy od Intel 486 SX). Gdy na rynek wkroczył przełomowy procesor Pentium, a wraz z nim Socket 7, AMD przez wiele lat produkowało coraz mocniejsze procesory na to stare gniazdo, podczas, gdy Intel usiłował przegonić konkurentów, implementując (przepiękny!) Slot 1. Jednakże AMD zniknie na pewien czas w owej opowieści. Zapomnijmy o nim na chwilę – mnie zawsze przynosi to niewypowiedzianą ulgę.

Potrzeba nam rewolucji

Intelowi jednak nie wystarczyło, że AMD to gracz drugoplanowy i postanowił tupnąć nogą jeszcze mocniej: wprowadzić nową architekturę, wymuszać nowy model pamięci i stosować własne chipsety. Wszystko poszło źle. Co szczególnie zabawne, dziś widzimy, jak rażące były problemy, które do tego doprowadziły. Ale jak to często bywa, trudno być prorokiem w branży IT.
Procesor Pentium III, mimo bycia ewolucyjną zmianą względem poprzednika (P6), to całkiem udana konstrukcja. Przetrwała kilka mikroarchitektur, od przeuroczego „Katmai”, tego na sloty, przez socketowy „Coppermine”, posiadany przez wszystkich skomputerozowanych wtedy członków mojego pokolenia, bo wtedy ceny spadły poniżej 4000 PLN za zestaw; aż po tajemnicze układy „Tualatin”, sprzedawane po dacie formalnego końca życia produktu. Historię rewolucyjnego Pentium 4 należy zacząć opowiadać właśnie od układów Tualatin.

Via Apollo Pro

Intel miał w owym czasie problemy z chipsetami. W przeciwieństwie do lat około 2010, gdy Intel robił płyty główne, chipsety, procesory, a nawet pamięć(!), co dawało ultraplatformę, ponad dekadę wcześniej, przez „platformę” rozumiano po prostu procesor, a producentów płyt i chipsetów było bardzo dużo. Oczywiście robił je również Intel. Problem w tym, że… nie był w tym najlepszy. Chipsety Intela dławiły wydajność układów Coppermine, w konsekwencji czego najpopularniejszym zbiorem chipów dla Pentium III przez kilka lat był wszechmocny VIA VT82C694X, sam również niepozbawiony błędów, ale zdecydowanie tańszy i wydajniejszy. Intelowski problem z chipsetami, początkowo będący zapewne inżynierską nieudolnością, wraz z nastaniem Tualatinów, przeradzał się w teorię spiskową. Dlaczego? Bowiem Intel sprzedawał płyty dla owych procesorów, serwerowe w dodatku, ale… na cudzych chipsetach. Ten piorunująco absurdalny proceder musiał mieć przecież jakieś uzasadnienie – no bo z jakiego powodu sprzedawać płyty pod własny procesor, stosując układy Broadcoma? Ano stało się tak dlatego, bo w Intelu najwyraźniej pracowało kilka niekomunikujących się ze sobą zespołów (jak w Microsofcie!), a strategia rynkowa składała się ze skromnego zbioru marketingowych sloganów. Innymi słowy, sukces Tualatina byłby porażką pewnego innego zespołu. Zespołu, który nie miał prawa ponosić żadnych porażek.
W ten sposób wracamy do planu wstrząśnięcia rynkiem przez wydanie nowego procesora, chipsetu i pamięci. Intel od lat pracował nad technologicznym następcą swoich układów, opartym o nowe rozwiązania, niekoniecznie będące kolejną iteracją w miarowym rozwoju platformy 86. Trzeba uczciwie przyznać, że w izraelskim oddziale badawczym nie brakowało pomysłów – efektem pracy były architektury Itanium i NetBurst. Obie są przeklęte i uchodzą, z kompletnie odmiennych powodów, za głębokie rozczarowanie. NetBurst ma za sobą jednak znacznie smutniejszą historię, bowiem trafił na rynek użytkowy, a więc niespecjalizowany. Był wszak mikroarchitekturą nowego, cudownego dziecka, czyli Pentium 4.

Nowe nie znaczy lepsze

Gdy procesory Pentium III zaczęły być powoli prześcigane przez konkurencję, Intel potrzebował nowej, „przyszłościowej” platformy, będącej przełomem. NetBurst istotnie był przełomowy technologicznie, obsługa potoku wewnątrz układu uległa poważnej zmianie, co natychmiast odróżniało je od poprzedniego P6, uznanego za platformę niezdolną do awansu w XXI wiek. Skoro AMD przegania Pentium na tej samej architekturze, można próbować ich dogonić, albo skupić się na mocnym skoku wprzód – jak NetBurst.

Należy też przy okazji uciszyć innych konkurentów. VIA zostało ukarane za stworzenie zbyt dobrych chipsetów i wytoczono przeciwko owej firmie proces za nieuprawione przyspieszenie szyny w układzie Apollo Pro (a więc ów VT82C694X!) polepszające wydajność. Rzekomo było to nadużycie względem otrzymanej dokumentacji. W praktyce jednak, Intel powinien gwizdać na wyczyn VIA, a tak naprawdę być im wdzięczny, bo sami nie potrafili stworzyć chipsetu pod własny procesor. Chodziło zatem bezwzględnie o to, by stać się dostawcą zarówno procesora, jak i chipsetów, a najlepiej całych płyt, początkowo cichcem sprzedawanych jako „referencyjne implementacje”. Zajęto się też kwestią pamięci i zastąpiono sprawdzony format SDR układem kości RDRAM, a więc bliżej nieznanego i rzekomo lepszego produktu firmy Rambus. Z którą oczywiście współpracował tylko Intel… Miało to przyspawać klienta do produktów Intela, ponieważ żadnego z elementów nie dało się zastąpić produktem konkurencji, co było w owym czasie nowością. Jednak plan wielkiego skoku, opracowany przez inżynierów z Hajfy, zakładał podejście „wszystko albo nic”. Pierwszą wersję owego „wszystko” rzucono na rynek na przełomie wieków, aby jak najszybciej rozpocząć wdrożenie platformy, mającej zabezpieczyć Intela na wiele najbliższych lat.

Entuzjaści wyczekujący następcy ukochanego Pentium III, otrzymali do testów zestawy oparte o superdrogą pamięć RDRAM, nowy chipset 850 oraz najnowszy procesor z serii Willamette, na idiotycznym i zapomnianym już dziś kompletnie sockecie 423. I rozpoczął się festiwal tańca i humoru, przez nielicznych nazywany również grubą inbą. Najnowszy Pentium 4 okazał się być niewiele szybszy, niż układy AMD, przede wszystkim jednak okazał się wolniejszy od produktu „kolegów z pracy”. Zaczęliśmy tę historię o Tualatina nie bez powodu. Otóż owa ostatnia iteracja procesora Pentium III była wydajniejsza, niż nowy Pentium 4. Był to problem o wiele większy, niż zwykłe numerki w benchmarkach, jakiś mały falstart serii, która się rozkręci. Wychodziło bowiem na jaw, że tańsza platforma, z RAMem i chipami od dowolnego producenta, jest lepsza niż nowy produkt, oparty na zamkniętym, i droższym, ekosystemie. Pentium 4 jawił się jako zwykły skok na kasę, podczas gdy najwyraźniej Tualatin dalej mógł być spokojnie rozwijany. A skoro AMD rozpędza się na starej architekturze, być może uda mu się zwiększyć dystans jeszcze bardziej…

Jak nie sprzedawać procesorów

Jak to się stało, że posłano na rynek produkt gorszy od technologicznego poprzednika? Dział marketingu Intela dał się złapać w pułapkę pieczołowicie (i nieświadomie) zastawioną przez AMD. Już wyjaśniam. Ale najpierw zwróćmy uwagę na to, jak AMD numerował swoje procesory. Układy Athlon początkowo miały numer taki sam, jak swój zegar (na przykład Athlon 900 miał zegar 900 MHz), ale już układy Athlon XP stosowały bezczelny trik: po przyzwyczajeniu klientów do „zegarowej” numeracji, nazwy rozjechały się względem taktowania. Układ „Athlon XP 1500+” miał zegar 1333MHz, a „Athlon XP 2100+” rozpędzał się jedynie do 1733 MHz. A do nazwy modelu nonszalancko dopisywano jeszcze ten plus! A więc za główną istotną cechę procesora uznawano zegar. Procesor miał być, w rozumieniu klienta, workiem na megaherce. Im więcej megaherców ktoś sprzeda w jednym worku, ten będzie lepszy. Nie jest to zaskakujące – dotychczas relatywna prędkość komputera rosła liniowo z prędkością zegara. Powoli jednak krzywa zaczęła się płaszczyć, odbiegając od pędzących coraz szybciej zegarów: na horyzoncie było widać ograniczenia sekwencyjnego przetwarzania danych. Ponadto, korelacja między wydajnością, a zegarem malała: nagle zaczęły się liczyć dodatkowe instrukcje procesora (na przykład wspomaganie multimediów i cyfrowego przetwarzania sygnałów, jak MMX i SSE), rozmiar pamięci podręcznej, liczba rzędów pamięci itd.

Coś takiego było jednak niemożliwe do wytłumaczenia klientowi, który coraz częściej nie miał zielonego pojęcia o mikroprocesorach i potrzebował nowego komputera „do internetu”. Dla kogoś takiego, jednoznaczną miarą jakości procesora był zegar. Dlatego AMD zaczął pędzić z numeracją w nazwach modeli, co było bezsprzecznie nieuczciwe (acz w pełni legalne, istniała w dodatku przekonująca wymówka). Ponieważ motyw z udawaniem megaherców w nazwie był już zajęty, konieczne było autentyczne rozpędzenie zegara. Dlatego wskutek badania potrzeb rynku zadecydowano, że główną przewagą Pentium 4 ma być pęd po megaherce, z rzekomym finiszem na dziesięciu gigahercach(!!!). Wszyscy po cichu wiedzieli, że sam zegar nie wystarczy, ale nie sposób było kłócić się z wynikami finansowymi, mówiącymi, że wyższy zegar lepiej się sprzedaje. Miał to być niepodważalny trend, na bazie którego Intel nabrał czelności, by próbować z jednorodnym meta-produktem procesor-płyta-chipset-pamięć pod parasolem Pentium 4.

Nowy procesor oczywiście zawierał nowości, jak zbiór instrukcji SSE2 czy nowy model przewidywania rozgałęzień (branch prediction – fantastyczne zagadnienie, coś dla bramkarzy na kokainie). Dłuższy potok przy szybszym zegarze to teoretycznie też nie jest taki głupi pomysł, bo skoro układ działa szybciej, to niech w jednym cyklu robi więcej. Rzeczywistość okazała się jednak nieco bardziej skomplikowana, niż broszura reklamowa dla udziałowców. Faktycznie więc główną siłą Pentium 4 miał być coraz szybszy zegar. Problem w tym, że i z tym prędko przestał sobie radzić. W przeciwieństwie do morskich muszli, które przyłożone do ucha szumią, bo jest w nich miniaturowe morze (potwierdzone info), procesory nie tykają same, gdy włoży się je do komputera. Potrzebują prądu. A, generalizując, żeby tykały szybciej, potrzebują go więcej. I teraz jest problem: albo osiągniemy stuprocentową wydajność elektryczną i narażamy się na złamanie praw fizyki, a za to są mandaty (chociaż się da) albo godzimy się z rzeczywistością i przyjmujemy do wiadomości fakt, że w konsekwencji dostaniemy też sporo ciepła. W tym akurat procesory Pentium 4 były znakomite – były lepszą nagrzewnicą, niż procesorem, a praca z nimi w jednym pomieszczeniu, którego temperaturę zauważalnie zresztą podwyższały, narażała na ubytek słuchu. Komputery desktopowe wzbogacały się o coraz bardziej rozbudowane i ciężkie wiatraki. Dotychczas, otwarcie obudowy pozwalało na łatwe odnalezienie procesora, na którym pracował (w 80% przypadków) mały wiatraczek o przekątnej samego procesora i wysokości pięciu centymetrów. W erze Pentium 4, konieczne było zdjęcie masywnego radiatora o nieprzyzwoitej masie, by móc zobaczyć płytę główną. Desktopy zatem stały się ciepłe i głośne, a w dodatku nie chciały przyspieszać. Jednocześnie, rosła sprzedaż układów Athlon, Duron i Sempron. Ponadto, był jeszcze jeden problem – laptopy.

Simultaneous Multi-Fail

Sprzedawano laptopy z procesorem Pentium 4, ale ów układ, niczym reaktor w Czarnobylu, nie pracował poprawnie pod niską mocą. Nie miał też szczególnie wiele do zaoferowania w kwestii energooszczędności. Laptopów nie wzięto pod uwagę, gdy obmyślano skok na kasę z platformą NetBurst. Gdy okazało się, że zwiększenie prędkości zegara wcale nie generuje więcej ciepła w sposób liniowy, tylko wręcz lawinowy, procesor Pentium 4 stał się układem bez żadnych zalet. Konieczne było znalezienie dla niego nowej tożsamości i nowych zastosowań. To oznaczało nowe wyrzeczenia oraz potrzebę wymyślenia, jak sprzedać typowemu klientowi coś innego, niż megaherce.
Poza pozbyciem się idiotycznych pamięci Rambus, pierwszą innowacją było wprowadzenie legendarnego Hyper-Threadingu. Był to jeden z pierwszych zwiastunów końca przetwarzania sekwencyjnego, ale początkowo nikt nie rozumiał, jak działa. Dotychczas, w przetwarzaniu współbieżnym, stosowano podejście SMP, czyli symultanicznej pracy wielu procesorów, koordynowanych procesem-zarządcą (oraz mechanizmami systemu operacyjnego). Takie podejście wymagało oczywiście samodzielnych jednostek obliczeniowych, co w praktyce oznacza płyty główne z wieloma gniazdami na procesory. Takie płyty były kosmicznie drogie i znajdowały głównie zastosowanie w serwerach. Wrzucenie na przykład dwuprocesorowych płyt głównych do klienta domowego, a następnie nakazanie mu zakupu nie jednego, a dwóch procesorów Pentium 4 byłoby pomysłem jeszcze gorszym, niż NetBurst. Intel wymyślił więc coś innego, czyli podejście SMT. Jeden układ potrafił jednocześnie prowadzić dwa wątki, a więc znajdować się w dwóch różnych stanach, w praktyce przedstawiając się jako dwa rdzenie. Nie jest to jednak układ dwurdzeniowy, a więc droższy w produkcji, ponieważ motor wykonawczy oraz komponenty, jak pamięć podręczna, są wspólne. Pentium 4 z HT widniał w systemie operacyjnym jako dwa procesory. Było to coś niewątpliwie nowego – drugi „procesor” był obsługiwany dopiero w Windows NT, a obsługiwany optymalnie – w Windows XP (oraz systemach z Linuksem 2.4 w środku).

Przewaga Hyper-Threadingu polegała na tym, że procesor potrafił zabierać się za dwa wątki jednocześnie. Nie oznacza to, że dotychczas wielozadaniowość była niemożliwa: po prostu teraz jeden układ mógł prowadzić dwa zadania bez ciągłego „przełączania kontekstu” – dynamicznej szamotaniny celem zmiany stanu. To było już znacznie mądrzejsze podejście ze strony Intela, ponieważ opierało się na mniej zbójnickim marketingu. W dalszym ciągu jednak była to swego rodzaju szarada: podobnie, jak AMD sprzedawało nieistniejące megaherce, tak Intelowi udało się sprzedać przekonanie, że oto otrzymujemy drugi procesor „za darmo”. Do tej pory na wielu aukcjach internetowych, sprzedawcy informują o Hyper-Threadingu poprzez ordynarne mnożenie zegara procesora przez liczbę wątków i rdzeni. Dlatego też bywamy raczeni ofertami zakupu laptopa z procesorem 12 GHz…

Wojny bitowe - wersja PC

Niestety, to nie wystarczyło. AMD znalazło się bowiem na wyraźnym prowadzeniu i przejęło rolę lidera rynku, na co Intel makabrycznie zmarnował szansę kilka lat wcześniej. Na przełomie lat 2003 i 2004 wydano bowiem legendarny procesor AMD64, który – czego wielu już nie pamięta – wyznaczył początek nowej ery. Był to bowiem nie tylko pierwszy procesor „domowy” (powiedzmy), który oferował przystępne i niełamiące zgodności instrukcje 64-bitowe. To oznaczałoby jedynie przegonienie konkurencji. AMD jednak nie tylko przegonił konkurencję, ale i całkiem mocno jej dokopał. Bowiem Intel miał swoją platformę 64-bitową, było nią wspomniane już Itanium. Porażka Itanium była mniej spektakularna z racji swojej grupy docelowej, ale nie mniej doniosła. A więc na początku 2004 roku, AMD pokazało Intelowi „jak to się robi”. Pamiętam, że gdy ktoś wtedy kupował nowy komputer, nie było to Pentium 4, a właśnie AMD64. Intelowska platforma uchodziła za „zmęczoną” i przeżytą. Intel musiał więc działać, żeby odzyskać swoją pozycję. Nawet, jeżeli porzucenie platformy NetBurst jeszcze psychologicznie nie wchodziło w grę, trzeba było mieć przynajmniej plan awaryjny, zakonspirowany jako projekt poboczny. Tak zapewne powstało Pentium M.
Dla ścisłości – istniały laptopy z Pentium 4. Pracowałem na takowych, ale potrafiły albo parzyć w nadgarstki albo pracować dziwnie powoli. Jednak przed powstaniem Centrino, tego typu wady były zbywane, bo nikt jeszcze nie wierzył w laptopy. Niestety, główna moc NetBurst, w postaci rzekomo rewelacyjnej skalowalności zegara boleśnie wychodziła na jaw jako oszustwo. Gdy desktopowe P4 nie umiały przekroczyć obiecanych 4 gigaherców, konstrukcje mobilne rzadko przekraczały nawet 3, a w dodatku się grzały. Z tego powodu, dla laptopów przygotowano układy Pentium M, w praktyce rozwiniętego Tualatina, zoptymalizowanego pod oszczędzanie energii. Pierwsze układy Pentium M, o zegarze 1.5 GHz, potrafiły w wielu scenariuszach prześcignąć „mobilne” Pentium 4, o zegarze dwóch gigaherców. Intel nie musiał jeszcze głośno ryknąć „Ludzie! Olejcie wreszcie te megaherce!” – wszak niższe taktowanie tłumaczono linią argumentacyjną „bo laptop”. Dzięki temu możliwa była jednak sprzedaż laptopów z układami Intela, zanim wszyscy ludzie uciekli do mobilnych Sempronów.

Zanim plan B mógł się stać planem A, rzeczywisty plan A musi się najpierw wysypać do reszty. Toteż Intel żwawo pracował nad wdrożeniem jakichś zalet dla swojego nieszczęsnego Pentium 4, przebudowując wewnętrzną architekturę, celem jej poprawy. W dalszym ciągu wierzono dogmatycznie, że wyższy zegar usprawiedliwia dłuższy potok, bo dzięki temu za jednym tyknięciem da się zrobić więcej. Dlatego rozszerzono potok jeszcze mocniej, usiłując dalej rozpędzić zegar. W ten sposób otrzymaliśmy między innymi legendarny Pentium 4 672 HT o zegarze 3.8 GHz. Istniał też, o czym do niedawna nie wiedziałem, Pentium 4 4.00 GHz, ale nie miał nawet numerka. Okazuje się, że anulowanie modelu 4 GHz było wyraźnie ogłoszone, by przy okazji poinformować świat, że Intel pracuje nad układami wielordzeniowymi. Był to kolejny subtelny sygnał mówiący o rychłym końcu wyścigu o megaherce.

Powyższe zmiany wdrożono w iteracji NetBursta, zwanej „Prescott”. I chociaż nowe modele pracowały z zegarem dwa razy szybszym, niż oryginalna wilametka, przewaga wydajnościowa względem poprzedniej iteracji wynosiła podobno 10%. Zadano sobie również trud, by zmniejszyć litografię do 90 nanometrów, co jedynie pogorszyło problemy z dyssypacją ciepła i rozkręciło inny wyścig, tym razem o waty w zasilaczu. Nie przejmując się energooszczędną platformą mobilną, Prescott kazał się mocniej karmić i generował jeszcze więcej ciepła. Bo przecież czemu nie, kto by się tym już przejmował. Przy okazji wdrożono całkiem sprytny „antysocket”, czyli zaskakująco długowieczne gniazdo LGA 775. Kojarzona z epickim kompletem Core 2 Quad + GeForce 8800, podstawka LGA 775 zaczęła swoją karierę właśnie w czasach Pentium 4.

Wszystko, tylko nie przełom!

Przebudowa wnętrza NetBursta pozwoliła zwiększyć Intelowi pole manewru, początkowo zorientowane wyłącznie na pęd po megaherce, zakończony przegraną bitwą z fizyką. Prescott, mimo bycia elektronicznym ogrzewaniem domu, dostarczał z biegiem lat kilka bardzo istotnych technologii. Poza wspomnianym anty-gniazdem, kolejne procesory Pentium 4 dostarczały na przykład obsługę bitu NX, pozwalającego wymuszać brak możliwości wykonania kodu, gdy znajdował się on w pewnych obszarach pamięci. Pozwalało to zredukować możliwości pisania po mrocznych obszarach pamięci wskutek przepełnienia bufora, a następnie wykonywania owych zapisków, co było częstą metodą złośliwego oprogramowania. Ciekawe jest jednak to, że „tak po prostu” Intel nagle w kolejnych modelach Pentium 4 włączył obsługę 64-bitowych adresów, w postaci rozszerzeń AMD64, a nie swojej wersji Itanium (co zresztą byłoby niemożliwe, ze względu na fundamentalne niekompatybilności). Włączenie obsługi x86-64 z powodzeniem zasługiwałoby na nowy produkt, coś w stylu „Pentium 5” (pentium-cepcja), ale zdecydowano się nie promować go zbyt mocno, co obecnie wygląda nieco dziwacznie. Najwyraźniej jednak Intel nie chciał głośno obwieszczać „patrzcie – nasz nowy produkt, oparty na niesatysfakcjonującej platformie, właśnie dogonił naszego konkurenta, który dwa lata temu stworzył specyfikację, na którą bez słowa sprzeciwu się zgodziliśmy, bo nie mamy innego wyjścia!”. Zamiast tego wybrali strategię, dzięki której rażąco widać, że od momentu premiery AMD64, w Intelu istniał zespół mający jak najszybciej przygotować jego implementację, by mogła być gotowa do natychmiastowego rzucenia na rynek. Stąd też doklejono są w locie do losowego procesora z przełomu 2004/2005 i udawano, że nic się nie stało.
Jeszcze ciekawsze są końcowe lata platformy NetBurst: schyłkowy Prescott (i jego litograficzny następca, czyli Cedar Mill), jawią się obecnie jako laboratorium doświadczalne dla przyszłej, odmiennej technologii. Netburst i tak był spalony, po co więc marnować wkład pracy? W ten sposób powstał procesor Pentium D. Od „dual”, bowiem były to układy dwurdzeniowe. Wysoki zegar i długie potoki były koszmarnym pomysłem, czas więc na niższy zegar i dodatkowe rdzenie. Z jednej strony reklamowano układy dwurdzeniowe jako „naturalną ewolucję”, bowiem w tę właśnie stronę zmierzał rynek. Z drugiej jednak było to przyznanie się do porażki, ponieważ skoki wydajnościowe miały być osiągane przez własności, których nie udało się otrzymać. Zapewne z ulgą przyjęto fakt, że Pentium D staje się ponownie układem kompetytywnym i nie zostaje w końcówce benchmarków, przeganiany przez AMD. Udało się zmniejszyć dystans, ale na pewno nie dało się jechać dalej na płonącej platformie NetBurst. Potrzebny był skok – brzmi to znajomo? Tym razem jednak Intel nie miał już możliwości popełnić błędu takiej samej skali, jak pod koniec roku 2000.

To the Core and beyond!

Ostatnim rozdziałem historii Pentium 4 jest ponowne zmniejszenie procesu produkcyjnego, tym razem do 65 nanometrów. Kolejna iteracja, zwana „Tejas”, została anulowana, ponieważ generowała jeszcze większe zapotrzebowanie na energie i skutkujące problemy z ciepłem i w ogóle z TDP były już niemożliwe do zaakceptowania i naprawienia. Rozwój NetBursta wstrzymano, i wreszcie plan B mógł stać się planem A. Architektura Core, podobnie jak Pentium M, wywodziła się ponownie ze sprawdzonej linii Pentium Pro. Pozostało posprzątać po wielopłaszczyznowej katastrofie – procesory Core 2 Duo sprzedawały się nieźle, a platforma Centrino sprawiła, że można było chwilę odetchnąć. Poświęcono ten czas, by wdrożyć politykę Tick-Tock, wymuszającą tworzenie nowego procesora co rok. Narzucenie wysokiego tempa sprawiło, że AMD dostało zadyszki, a dziś platforma AM3+, Athlon, Radeon bardzo często jest synonimem problemów ze sterownikami i niestabilną wydajnością. W efekcie Intel zrealizował swój plan. Co prawda nie robi płyt głównych, ale chipsety i procesory gwarantują rynkową dominację. A najszybsze procesory Pentium 4 zostały przegonione, oczywiście w kwestii samego zegara, przez Core gdzieś w okolicach późnego Haswella. Taki monopol oczywiście prowadzi do patologii. Intel może nawiązać „współpracę” z Microsoftem, w kwestii rozwoju platformy, a następnie wrzucić do chipsetu takie cuda, że brak sterowników sparaliżuje pracę, wymuszając instalację Windows 10. Brak alternatywy bardzo ułatwia propagację podejrzanych narzędzi typu „Intel Management Engine”, który pod pewnymi warunkami można nazwać ordynarnym sprzętowym backdoorem i bombą z opóźnionym zapłonem. Jak ktoś odkryje, jak to przejąć, zaczną się dziać niezłe rzeczy.
Konkurencja zawsze jest potrzebna. Gdy Apple szło na dno, wyciągał ich sam Microsoft. Intel zaczyna dobiegać do ściany atomowej i nie potrafi wydawać nowych mikroarchitektur z taką samą prędkością. AMD jest im potrzebne z wielu powodów i tym razem Intel to wie. Myślę, że nie czeka nas już polityka zatapiania konkurencji, jak pozwy przeciwko VIA – dobrą poszlaką są pogłoski o współpracy z AMD w kwestii nowego układu graficznego dla nowych procesorów Intel Core. Zobaczymy :)

Addendum

PS – oryginalnym „planem B” na wypadek niepowodzenia strategii Pentium 4 + RDRAM miała być… reorientacja Intela na profil sieciowo-internetowy. Sam Andy Grove to powiedział! Jak ktoś dopadnie wiarygodne źródło, będę wdzięczny ^^

 

sprzęt inne

Komentarze

0 nowych
Pom Pom   3 #1 31.12.2016 14:44

Bentium :---DDDDDDDDDD

revcorey   8 #2 31.12.2016 15:14

Intel nie może pozwolić na upadek AMD przyczyna jest prozaiczna, amerykańskie organy anty-monopolowe. To wiadomo od dawna, nawet ktoś z intela się w którymś wywiadzie do tego przyznał dawno temu to było.

BloodyEyes   7 #3 31.12.2016 15:15

Kiedy zaczynałam przygodę z komputerami, to w środowisku "poinformowanych" panował mit, że AMD tylko do giercowania, a Intel do poważnych prac.

Mimo wszystkiego co się o AMD mówiło, dla mnie zawsze będzie to dobre wspomnienie.

Obecnie AMD nie jest zagrożeniem dla Intela (przynajmniej tym od strony PR), więc mogą z powodzeniem podać im rękę.

robert.32   8 #4 31.12.2016 15:32

Fajny artykuł :) Dzięki.

  #5 31.12.2016 15:36

Większej bzdury nie czytałem. Mam do zarządzania komputery i na intelu i na AMD. Ten drugi minimalnie ustępuje wydajnością. Ale jak ktoś chce powielać bzdury zasłyszane z netu to pisze takie wpisy. Problemy z AMD? Nigdy nie natrafiłem. No cóż może miałem szczęście...

tomangelo   6 #6 31.12.2016 15:55

Te numeracje AMD wzięły się jako porównanie do Thunderbirdów, chociaż powszechnie to był przelicznik "ilu Intelowskich megahertzów trzeba do przegonienia danego AMD". Bez zwiększania zegarów podnoszono wydajność, stąd podnoszono cyferki. W założeniu miało to pewnie pokazać w prosty sposób nieświadomemu Kowalskiemu o ile ten 2GHz Athlon XP byłby szybszy od zwykłego Athlona bez XP. Marketing AMD (nie)chcący zagrał tu Intelowi na nosie.

ShFil   3 #7 31.12.2016 16:04

Coppermine, posiadanie celerona znaczyło coś innego niż dzisiaj. ;)
Przy pentium m, z tego co pamiętam, mocno ruszyli architekturę. Micro ops było rewolucyjne nawet.
btw: https://www.youtube.com/watch?v=88ancHxItOc

Vegost   9 #8 31.12.2016 16:23

@revcorey: Intela nie obchodzi AMD. Dla nich ta firemka może nie istnieć. Patrzą na nich, bo to jedyny producent innych procesorów. Nie oznacza to, że są jakąś konkurencją w obecnych czasach. Przegrywają z Nvidia i z Intelem. Co to znaczy monopol? Intel ma odpowiadać za to, że AMD nie potrafi stworzyć takiego procesora, który był by wydajny, pobierał mało ciepła i był konkurencyjny z serią skylake? Bez przesady. Wszystko się kręci wokół $. Kiedyś AMD sprzedawało tańsze podzespoły z niezgorszą wydajnością. Teraz jest pustka.

daras28-82   9 #9 31.12.2016 16:24

Miałem dawno temu IBMa z PIV 2,8Ghz bez HT, długo służył i dzielnie.
Dobrze spominam maszynkę, z tego co wiem to ciągle żyje i ma się świetnie, kolegi znajoma go przytuliła i do dziś użytkuje.
Obecnie w jednej stacji AMD a 2-giej dwa Xeony.

Jaziko   6 #10 31.12.2016 16:27

Po lekturze doszedłem do wniosku, że w moim pececie Intel Xeon® Processor E3-1230V2 może czuć się bezpiecznie.

revcorey   8 #11 31.12.2016 16:32

@Vegost: Przecież urząd anty-monopolowy już się za nich zabierał, tak samo jak chyba chcieli się zabrać za google i androida a w latach 90-tych microsoft jakoś uniknął rozparcelowania na 3 osobne firmy.
Po upadku AMD, Intel miał by wtedy kompletny monopol w x86 i podpadał by być może pod ustawy antymonopolowe. To nie są jakieś moje wymysły tylko jak mówiłem kiedyś czytałem jakiś stary wywiad z człowiekiem od intela.
Do intela na razie dobrały się organy antymonopolowe UE za spychanie amd na bok.

"Intel ma odpowiadać za to, że AMD nie potrafi stworzyć takiego procesora, który był by wydajny, pobierał mało ciepła i był konkurencyjny z serią skylake"
Kolejny, myślisz że takie rzeczy klepie się w garażu, potrzeba na to olbrzymich środków + zaplecza inżynierskiego. Amd nie ma obu. To jest taka gadka gimnazjalistów.

Autor edytował komentarz w dniu: 31.12.2016 16:32
Vegost   9 #12 31.12.2016 16:47

@revcorey: Serio? To tylko pokazuje jak głupi jest system prawny na świecie. Mam płacić za to, że ktoś sobie nie radzi na rynku :) Jeśli tak, to może powinni się zabrać za produkcję marketingowe? AMD jest świetny w tym i od lat sprzedaje ładne obrazki i zawarte w nich informacje.

A co mnie to obchodzi, że produkcja nowej architektury wymaga dużego zaplecza od strony inżynierii i pieniędzy? Myślisz, że to obchodzi konsumentów? Nie. Konsumenta obchodzi cena i możliwości zakupionego sprzętu. Nie, nie jest to gadka gimnazjalistów a racjonalne myślenie. Inna firma nie będzie odpowiadać za błędy konkurencji. Tyle.

biomen   8 #13 31.12.2016 16:53

W swoim pierwszym komputerze miałem Athlona XP 2500+. Jaka to była satysfakcja jak procek kręcił się spokojnie do poziomu 2.2 Ghz (taktowanie modelu 3200+) i nosem wciągał Pentium 4 z taktowaniem 2.8 Ghz czy to w konwertowaniu filmów czy w grach. :D

  #14 31.12.2016 16:54

Pamiętam czasy,gdy co 2 miesiące wychodził nowy procesor,lata 90 XX w.Wyścig na megaherce.Wtedy PC był maszynką bez dna.Komputer po 2 latach był na śmietnik,bo już trzeba było mieć następnego Pentiuma II 400 MHz,podczas gdy większość miała 486 lub Pentium 100-166 MHz.

  #15 31.12.2016 16:57

Babciu to jest zaj*!

  #16 31.12.2016 17:04

@Vegost: Konsumenta nie obchodzi cena o ile nie ma porównywalnego punktu odniesienia.

IrasDeeJay   7 #17 31.12.2016 17:06

Fajny wpis, lubię czytać o historii komputerów. Ja bym chciał wspomnieć o obudowach z kanałem Prescott, producenci obudów też wiedzieli co jest na rzeczy, i poprzez montaż tunela powietrznego, zapewniali P4 dostęp do chłodniejszego powietrza z zewnątrz komputera. Masakryczne czasy, dlatego wtedy posiadałem Athlon 64 X2 3800+ zamiast Pentium D

ubik   4 #18 31.12.2016 17:27

@Vegost: Upadek AMD skutkowałby tym, że intel zacząłby ustalać ceny na swoje procesory dowolnie wysoko. Brak konkurencji odbija się najpierw na kieszeni użytkownika końcowego. Przerabialiśmy już to kiedyś na rynku PC. Gdyby nie przejęcie ATI przez AMD, dziś mielibysmy pełen dyktat nVidii.

Autor edytował komentarz w dniu: 31.12.2016 17:30
  #19 31.12.2016 17:47

Ciagle wspominam mojego pentiuma 3. Niestety w 2005 roku musialo spalic sie gniazdo na procesor

  #20 31.12.2016 17:48

lepiej aby amd nie upadło. już teraz koszty produkcji tańszych core i3 są na poziomie kilkudziesieciu dolarów (razem z kosztami wdrożeń) a intel woła za nie 10x więcej. a gdyby upadło amd pozostałby monopol, który skończy się cenami z kosmosu. konkurencja jest jednak zdrowa jak jest zdrowa. nikt z nas nie wie jakie konszachty ma na "sumieniu" intel w celu zminimalizowania znaczenia amd. przykład? prosze bardzo. czemu wiekszość firm produkujacych oprogramowanie nie korzysta z instrukcji procesorów amd, instrukcji typowych tylko dla amd? czy to przypadek? na rynku są 3-4 programy obróbki video, graficzne, telewizyjne które to potrafią i takie fx-y są równie wydajne jak najnowsze core i7. dlatego popularność produktu buduje się wielopłaszczyznowo, a najlepiej budować na tym co się najlepiej sprzedaje, czyli na wydajnosci w grach

  #21 31.12.2016 17:54

@ubik: Tak, procesory kosztowałyby tyle, że zaczęłoby się opłacać je produkować konkurencji. Do książek knypie!

MacGregor   8 #22 31.12.2016 18:02

Autor to fanboj intela? Po pierwszym akapicie przestałem czytać.

wielkipiec   16 #23 31.12.2016 18:10

@MacGregor: jakich innych fajnych rzeczy też dziś nie zrobiłeś? Skoro zakładasz, że warto się tym dzielić, kontynuuj! Ja na przykład dziś nie wyrywałem chwastów :) Nie piłem dziś też piwa. Nie spawałem. Makaronu nie gotowałem...

qrvishon   3 #24 31.12.2016 18:19

"A najszybsze procesory Pentium 4 zostały przegonione przez Core gdzieś w okolicach późnego Haswella." ?
Doprawdy ?

irokiee   9 #25 31.12.2016 18:19

hehe mój socket 775 ma się dobrze... ;-D zanim go złożyłem miałem pierwszy składany własnoręcznie zestaw - slotowy Celeron 333 (Abit z chipsetem Intel 440BX), a później drugi składak - Durona 800 (płyta główna na jakiejś VIA)... dopiero jak pojawiły się wielordzeniowe Core2Duo uparłem się kupić pierwszego Quada 6600... później wymieniłem go na Xeona X3360 - który do dzisiaj hula... obecnie czekam na realne wyniki Ryzena i obserwowanie rynku (liczę na spadające ceny) w Nowym Roku...

wielkipiec   16 #26 31.12.2016 18:22

@qrvishon: samym zegarem licząc tak. 3.8 GHz. Ale sam zegar to (na szczęście) nie wszystko ^^

szakisz   2 #27 31.12.2016 18:49

@revcorey: Mnie jako klienta końcowego guzik interesuje cały proces projektowy czy technologiczny. To do zarządu firmy należy problem korygowania wszystkiego i rozłożenia kosztów. Ja chcę jednego: w określonym przedziale cenowym dostać możliwie najlepszą jakość i najlepsze możliwości. Tak zawsze było. AMD ma dwóch konkurentów, nie dwudziestu jak chociażby producenci smartfonów, którzy co roku ścigają się w wyścigu na "flagowce" by dostać swoją porcję torcika zwanego rynkiem. Jeżeli nie potrafi nawet z nimi sobie poradzić to może powinni się przebranżowić?

tomangelo   6 #28 31.12.2016 18:50

@biomen: W moim przypadku był chyba jakiś gorszy sort Bartona, nie dało się go ruszyć w żadną stronę, zawsze kończyło się zawieszką BIOSu, by po chwili zresetować się do jakiegoś modelu 1100+ (lub podobnie niski numer). Raczej nie kwestia pamięci, te po przestawieniu z 333 na 400 wciąż stabilnie działały, a nForce2 ponoć dobry do kręcenia. Cóż, biednemu zawsze wiatr w oczy i cegłą po głowie.

MacGregor   8 #29 31.12.2016 19:00

@wielkipiec: Pamiętaj, zbyt wysoka samoocena to też nic dobrego. EOT

rpdshr   5 #30 31.12.2016 19:02

Widzę dwie nieścisłości - po pierwsze Intel produkuje płyty główne, ma nawet serie specjalne, dedykowane graczom, ich logotypem jest symbol czaszki. Dwa, AMD za czasów AthlonówXP stosowało numerację 'równoważnikową' w stosunku do odpowiedników Intelowskich. Oznaczanie 1500+ przy zegarze 1.3GHz oznaczało ni mniej, ni więcej jak to, że AthlonXP z zegarem 1.3GHz jest tak wydajny jak Pentium z zegarem 1.5GHz.

Poza tym widzę, że jesteś ciut uprzedzony do AMD. Ja korzystam z obydwu platform (w domu i pracy) i nie sprawiają mi one żadnych problemów. Dosłownie raz miałem problem z renderowaniem video (zajmuję się montażem filmów) za pomocą OCL na Radeonie. Po zmianie sterownika na nowszy wszystko jest ok aż do dzisiaj. Słownie raz takie coś mi się zdarzyło. Tak więc, nie zgadzam się z Twoimi słowami, jakoby AMD = guano. Tyle. :)

wielkipiec   16 #31 31.12.2016 19:06

@MacGregor: jak zwykle w takich sytuacjach patrzyłem tutaj: http://www.dobreprogramy.pl/437799,MacGregor,Komentarze.html

bawiąc się w "znajdź niepogardliwy komentarz". No i jak zwykle jest słabo ^^

wielkipiec   16 #32 31.12.2016 19:13

@rpdshr:
1. "czaszkowe" płyty główne Intela były kiedyś szeregowym produktem. Oni się potem z tego katapultowali. http://ark.intel.com/pl/products/family/1125/Desktop-Boards . Mniej więcej o takie coś mi chodziło
2. prawda - AMD miał niezłą wymówkę, żeby stosować taką numerację, ale opinie były podzielone
3. moje uprzedzenie do AMD jest oparte wyłącznie na doświadczeniu, nie śmiem stawiać go jako merytoryczny argument ^^

  #33 31.12.2016 19:21

Wow!!! A ja mam pentium r E5700 3.00 GHz dual core I jeszcze Athlona 64 ten drugi jest wolniejszy mimo że na pierwszym jest win 10 a na Athlonie 7

rpdshr   5 #34 31.12.2016 19:22

@wielkipiec: Kurcze, spojrzałem szybko na najpopularniejsze sklepy i faktycznie, brak płyt intela. Hmm... nie czytałem żadnego niusa o tym, że wycofują się z tego pola. Myślałem, że nadal je klepią. Ciekawe...

amsteldam   4 #35 31.12.2016 19:38

cyrix 166+

  #36 31.12.2016 19:46

fajny art, choć nieco chaotyczny. dość ładnie oddzielona rzeczywistość od pr bełkotu którym gazetki i stronki nas faszerowały...
ale hmm, piszesz tylko ochy achy o chipsecie via, a co z intel bx 440? w pewnym momencie każdy wszędzie tylko to polecał...

MacGregor   8 #37 31.12.2016 20:04

@wielkipiec: Ja mam swoje zdanie ty swoje. Ale to nie znaczy że musimy się zgadzać

qrvishon   3 #38 31.12.2016 20:05

@wielkipiec:
Obawiam się, że to bzdura.

Tu masz wyniki prescota i northwooda Pentium 4 o wysokich zegarach:

https://zapodaj.net/d2f0fdc7d6d1a.png.html

https://zapodaj.net/60df83d49aa01.png.html

A tu 4 rdzeniowce o podobnych zegarach. Podziel sobie przez 4

https://zapodaj.net/39ead2244df3d.jpg.html

https://zapodaj.net/58849620ff92d.jpg.html

Konkluzja jest oczywista.

I jeszcze na koniec ciekawostka odnośnie podkręconego Pentium D do 4,5Ghz i i jeden z najwcześniejszych modeli Pentium Dual Core E2160:


https://zapodaj.net/1fdd790374e57.png.html

https://zapodaj.net/d23331636b8b3.jpg.html

mly   8 #39 31.12.2016 20:10

@BloodyEyes: "AMD tylko do giercowania, a Intel do poważnych prac"

Tak było w latach 1998-2004 jednak rzeczywistość była inna.

wielkipiec   16 #40 31.12.2016 20:13

@qrvishon: ja mówię tylko o cyferce, a nie o osiągach!

mly   8 #41 31.12.2016 20:16

@rpdshr: Wszystko zależy do jakich czasów się odnosimy i jakie modele porównujemy. Według mnie Athlon XP 1500+ był słabszy od Intela Pentium z zegarem 1500 MHz. Ale jak wszystko można i to podważyć - bo wydajność końcowa zależy jaką mieliśmy płytę , pamięć i dysk a więc. Chce powiedzieć , że w tym temacie wszystko jest względne.

qrvishon   3 #42 31.12.2016 20:17

@wielkipiec: No więc nie zgadza mi się wyrażenie, że dopiero haswelle dogoniły wysoko taktowane p4. Robi to nawet generacja core 2 duo

qrvishon   3 #43 31.12.2016 20:20

@mly: To nie wiem gdzie tak twierdzono, ale ja słyszałem, że to Intel lepiej się nadawał do giercowania. I był ku temu realny powód. FPU w Intelach przez lata było wydajniejsze niż w procesorach AMD. Dopiero od K7 AMD dogoniło a nawet przegoniło Intela wydajnością i niższą ceną. Kiedy pojawiły się pierwsze Durony i cermiczne Athlony to od 2001 roku większość składaków to były kompy na AMD. Dopiero generacja Core 2 Duo zostawiła AMD w tyle. I trwa to do dziś

wielkipiec   16 #44 31.12.2016 20:30

@qrvishon: tak, wiem :D Mniej więcej kojarzę osiągi układów Intela ;)
Wyedytowałem tekst, z bólem serca :D

elita   6 #45 31.12.2016 21:00

A kto pamięta "slotową wpadkę" z 300A - gdy tani celeron ($100) bez cache przegonił najmocniejsze wtedy 3x droższe Pentium ($300). Problem był w tym że procek bez cache robił taki OC że wyprzedził wszystko na rynku :) Pentium nie chciało się kręcić, bo paradoksalnie cache padał :)

pirx79   3 #46 31.12.2016 21:26

Słaby tekst, podający nieprawdziwe informacje.

qbaz   12 #47 31.12.2016 21:37

@wielkipiec Jeżeli możesz, podaj proszę jakieś bliższe informacje (choćby źródło) o tym P4 4.0GHz, będę niezmiernie wdzięczny.
Pozdrawiam

qbaz   12 #49 31.12.2016 21:54

@wielkipiec: Dzięki, ale te informacje akurat znam. Liczyłem bardziej na coś w stylu jakiegoś nieoficjalnego testu próbek inżynieryjnych ;) (nie mówię o testach przetaktowanych Prescottach czy Cedar Mill)
Dzięki i pozdrawiam

wielkipiec   16 #50 31.12.2016 21:58

@qbaz: on nie dostał nawet numerka! Polecam komentarze tutaj: http://www.os2museum.com/wp/mystery-netburst/
Oznacza to, że nawet, jeżeli go wyprodukowano, to nie zrobiono dla niego pudełek. Nawet modele "Confidential" miały swój s-spec. Całkiem możliwe, że nikt ich nie ma.

qbaz   12 #51 31.12.2016 22:05

@wielkipiec: Znam dość dobrze historię i proce Intela (no, nie tylko Intela - takie moje małe hobby), więc myślałem, że może coś, gdzieś jednak wyciekło, a Ty posiadasz jakieś o tym info.
Jeszcze raz dzięki i pozdrawiam

_qaz7   6 #52 31.12.2016 22:58

Andy (Grove) and Bill's (Gates) Law:
"What Andy giveth, Bill taketh away.”

Autor edytował komentarz w dniu: 31.12.2016 23:20
  #53 31.12.2016 23:39

@elita: 300A miał cache, tylko że wmontowany w rdzeń i działający z pełną prędkością.

  #54 01.01.2017 00:57

Kupowanie platformy opartej o AMD uchodzi za zbędny, niesłyszany przez nikogo manifest i oczywiście skazywanie się na niekończącą się, nierówną walkę ze sterownikami. Za absolutną niezarządzalność i pasmo problemów z OpenCL

WHAT? procki amd może i są mniej wydajne od intelowskich może ale z dobrym chłodzeniem sa nie do zajechania można kręcić i grzać to jak plastelinę...

  #55 01.01.2017 02:46

@Pom Pom: To wszystko bzdury. Walka jest zacięta i bez pardonu. Intel wygrywa. Sterowniki - bzdura. AMD miał problem ze stabilnością, cała reszt to bzdura. Od pierwszych modeli AMD zawsze był gorszy. Zła stabilność układu, gorsza wydajność. Gorsza architektura. Miałem kilka athlonów i kilka P4 oraz wszelkich innych inteli. Athlony zawsze był gorszy, gorsza stabilność, gorsza wydajność, gorsza architektura, grosze przegrzewanie się. AMD udało się nie upaś tylko dzięki znacznie lepszej cenie. Ale w zadaniach biznesowych zawsze byłem przeciw stosowaniu tej niepewnej architektury. Dopiero Phenom był stabilnym procesorem. W pracy stosowałem dziesiątki ( może nawet setki) procesorów, ale produkty AMD stanowiły nikły odsetek, który zawodził. Cały ten artykuł, to pieprzenie o wadach intela, które w stosunku do braku stabilności AMD były bardziej zaletami niż wadami. Jedyną rodziną procesorów AMD którą doceniam jest rodzina Phenom, ale intel ją przegonił o kilka skoków technologicznych. Ale w brew mojemu doświadczeniu, zawsze dawałem szansę produktom AMD tak procesorom jak i kartą graficznym i liczę że przełamią monopol Intela. I to może się stać wraz z architekturą ZEN, ale jeśli cena będzie kijowa - porównywalna z produktami Intela to chrzanie pajaców z AMD i przenoszę się na architekturę Intela, a coś czuję w kościach że pajace z AMD myślą że mogą sprzedać za podobną cenę taki sam produkt jak intel, co jest bzdurą, bo niepewne gówno za cenę sprawdzonego produktu, nic nie pokona. Wróżba dla AMD: Firma nie przetrwa 3 lat z tak gównianym marketingiem. Karty graficzne tracą na całej linii, pieprzenie o 5% lepszej wydajności w 5 tytułów żadnego gracza nie przekona. To samo z procesorami, pajace wciąż ścigają intela, mają gorszą architekturę, są 2-3 lata za intelem. Nie będzie zaskoczenia, entuzjaści przeżyją cenowy szok, bo ciołki z AMD będą mieć porównywalne ceny z Intelem.

  #56 01.01.2017 06:10

@Vegost: Przeciez caly czas placisz w podatkach na tych co sobie nie radza w zyciu...

Azi   12 #57 01.01.2017 06:57

@biomen: Musiałeś mieć dobrą płytę główną (pewnie na VIA) ;-)
Miałem kiedyś na serwisie podobny zestaw. Na czystej instalce XP-ka zasuwał tak, że z boku jakieś Core2 nie miało nic do powiedzenia...

Azi   12 #58 01.01.2017 07:17

@elita: Wtedy trzeba było płytę przestawić na 100 MHz - czasy Abit-a BH6,BE6 - dobre czasy :) I faktycznie 300A dawał kopa, tylko nie wszystkie się tak dawało zrobić - z tego co pamiętam to prawie każdy na 466 MHz szedł, powyżej to była loteria...

qrvishon   3 #59 01.01.2017 08:29

I jeszcze taka mała ciekawostka odnośnie przewagi VIA Apollo Pro nad ówczesnym chipsetem Intela, czyli I815.

Dwa identyczne zestawy poza płytami głównymi

http://www.youtube.com/watch?v=HkJbJDCTW4U

przemo188   8 #60 01.01.2017 10:50

Biomen ma rację co do systemu oznaczenia swoich procesorów. Autor artykułu jest za młody by mieć rozeznanie. Ja w tamtych czasach miałem 26 lat i byłem maniakiem. Ale jak pisał ówczesny komputerowy świat i polska prasa którą namiętnie kupowałem AMD oficjalnie podało że system oznaczania oznacza równo lub szybciej niż Intel o odpowiednim, podanym w nazwie taktowaniu. Wówczas AMD miało czelność śmiać się Intelowi w twarz. Potem Intel się wkurzył, sięgnął po starą architekturę Pentium Pro Mx (jak pamiętam nazwę tego dziwnego, w dziwnej obudowie procesora, który zresztą posiadałem, a drogi był strasznie bo do serwerów ) i wyszedł do przodu. I tak do dziś, gdy być może AMD znów nawiąże równą walkę. Posiadałem też coś lepszego od Athlonów + , miałem Bartona 2800+, to pędziło. Kolega był maniakiem gier, zresztą mającym więcej kasy więc zainwestował w Pentiuma 4 3,2 GHz. Robiłem testy wydajności kompresując duży plik i redendrując na ówczesnym programie do montażu Pannacle film zgrany z kasety VHS na DVD. Wyniki były porównywalne. Bardzo porównywalne. A potem uwaliłem rdzeń Bartona ukruszając go w kolejnym tuningowaniu swego ulubieńca. Wyczytałem że Semprony, które wyszły po serii Athlon to ich tańsze odpowiwdniki, z tym że najmocniejszy z nich to tak naprawdę Barton 2800+ i rzeczywiście wydajność miał identyczną z tym że lepiej się kręcił (miałem płytę Asusa na rewelacyjnym pod względem muzyki chipsecie nforce firmy Nvidia, była na bogato - dawała radę). Ogólnie wówczas będąc singlem i mając dobrą pracę mocno inwestowałem. Miałem jako pierwszy dyski SSD, kartę TV Sat (oglądało się Polsat po zdekodowaniu ich systemu kodowania). To były czasy jak człowiek miał bzika. Potem to minęło.

Autor edytował komentarz w dniu: 01.01.2017 14:58
jaro28   6 #61 01.01.2017 11:30

Przygodę z kompem zaczynał od procka 386, potem przez jakiś dłuższy czas miałem 486 DX 2 a zegar od procka pokazywał mi wtedy 66MHz xD :D To był wtedy szał :D zawsze jak chciałem w coś pograć to miałem ograniczenie i musiałem się zadowolić gierkami które pójdę mi właśnie na tym procku :D

  #62 01.01.2017 11:40

Ve@Vegost
Mam płacić za to, że ktoś sobie nie radzi na rynku

W tym problem, że jak dojdzie do monopolu Intela, to zapłacisz jeszcze więcej.

n33trox   6 #63 01.01.2017 12:02

To temu te pierwsze Pentiumy 4 takie wolne były... Bardzo fajny wpis :) Lubię się zagłębiać w tego typu historie. Sam przygodę z kompami zaczynałem od Celerona 633 MHz na płycie ABIT BX133-RAID (chipset Intel BX440)... teraz już będzie prawie 17 lat, także szmat czasu. Procesor jako tako raczej dobrze wspominam, tylko mobo trafiała do naprawy wiele razy z uszkodzonymi kondensatorami. Wtedy jeszcze pojęcia o sprzęcie nie miałem, ktoś inny mi go wybierał i tak wyszło, że w kompie siedział zasilacz Codegen :D Teraz już wiem, czemu te kondensatory nie dawały rady, ale w tamtych czasach człowiek był smarkiem, nie znał się. Ale na tym zasilaczu, nie zdając sobie sprawy z powagi sytuacji, wykręciłem 874 MHz z tego procka :D Można? Można!

Jakieś pół roku po mnie kumpel kupił kompa z Pentium 4 właśnie, na socket 423, chyba miał 1,4 GHz ten procek. Myślałem wtedy, że to demon prędkości, ale jak u niego byłem, nie mogłem wyjść z podziwu, że to jakoś tak... wolno działa, jak na swoją cenę. Prawie jak mój Celeron, albo i gorzej :P

A ja cisnąłem na tym złomie jakoś do 2005/2006, kiedy to wymieniłem na Athlona 64 X2 4200+ i bardzo dobrze wspominam ten sprzęt. Spędziłem z nim kolejnych parę lat. Co prawda po premierze Core2 Duo szału nie było i jakoś tak trafiło na mój egzemplarz, że praktycznie w ogóle się nie chciał kręcić. No ale działał i to całkiem sprawnie, jak na te czasy. Teraz jest u kumpla i nadal działa. Może najnowszych gier nie ciągnie, ale ostatnio w Fallout 3, New Vegas cisnął na tym i szło elegancko :) Skyrim podobnie.

A teraz Xeon E3-1230V3 siedzi u mnie i co tu dużo kryć... Tu już jest moc. A najlepsze, że ten sprzęt nie traci na wartości, a zyskuje :D Już dawno się z czymś takim nie spotkałem. W momencie zakupu był wart bodajże 850 zł, teraz chodzi za ponad 1000. Moc nadal trzyma elegancko, to zdecydowanie najlepszy proc, jaki do tej pory miałem :) Ciekawy jestem, pomimo wszystko, Ryzena od AMD i kibicuję im, żeby wreszcie pokazali Intelowi, że czasy Athlona 64 mogą jeszcze wrócić :)

crypto_curious   4 #64 01.01.2017 12:07

Świetny artykuł, dzięki :) Przeczytałem od deski do deski:)

sokoleokopr   8 #65 01.01.2017 12:12

Ja akurat świetnie pamiętam te czasy trochę przegieliście.

Miałem XP 2.4gh thortona a kumpel P4 nort. 2.4 i Pentium było wyraźnie szybsze. Nie mogę również zgodzić się z tym że via to był dobry chipset bo nie był dużo mniej problematczne była ALI a i kilku mniejszych. Pamiętam jeszcze płyty TOMATO. Różnice było widać na p4 i xp na tej samej grafice po prostu gry i system na p4 chodziły lepiej koniec i kropka. Natomiast pierwsze C2D to nędza artystyczna i dobry Presscot łoił je przepotwornie.

_qaz7   6 #66 01.01.2017 12:14

Pentium 4 mógł być wydajniejszy w specjalistycznych zadaniach - np. sekwencyjnego przetwarzanie dużych ilości danych strumieniowych, wymagających jedynie wykonywania zmyślnego fetchowania danych do cache z odpowiednim wyprzedzeniem, a dalej wykonywania względnie prostych operacji arytmetycznych na SSE/SSE2 jak np. mnożenie wektorów przez macierz, postproces obrazów, itp. Jeśli kod przetwarzania nie zawierał branchów decyzyjnych (poza zliczającym pętle), lub można było je zamieniać na tzw. conditional move i jeśli taka subrutyna mieściła się w cache kodu to dodatkowo NetBurst cachował micropsy i dzieki temu dekoder wewnętrzny nie musiał w kółko pracować nad zamianą kodu x86 na microopsy (to była przewaga Intela nad AMD, cache dla microopsów, AMD wykonując 10000 razy tę samą krótką subrutynę musiał za każdym razem to samo dekodować).

W takim przypadku dzięki długiemu potokowi i wysokiemu zegarowi potrafił sprawnie takie operacje przeprowadzać - taki bruteforce. I nawet nie miało większego znaczenia wcześniej uważane za kluczowe ilość cykli na wykonanie pełnego rozkazu - bo ilości cykli były porażające w tej architekturze, ale zaczęło się liczyć tzw przepustowość - tzn po ilu cyklach od rozpoczęcia wykonywania poprzedniego rozkazu można zacząć wykonywać kolejny. I tak np, jeśli nawet zwykły rozkaz wykonywał się w 10 cykli na rejestrach, wpadając w potok, gdzie powiedzmy mieściło się 10 rozkazów, ale każdy rozkaz w potoku potrzebował jednego cyklu na przesunięcie się całego potoku, efektywnie wychodziło, że 10 rozkazów wykonać się mogło w 10 cykli czyli teoretycznie efektywny IPC na poziomie 1 - jedna instrukcja na jeden cykl zegara - oczywiście to przykład, bo tamtejsze IPC były znacznie niższe - oczywiście (update).

Problem leżał w tym, że dla x86 produkowany kod maszynowy był najeżony branchami - w przypadku długiego potoku wykonawczego to była masakra - po wykonaniu brancha, który nie został właściwie przewidziany przez predyktor, cały zapchany potok niepotrzebnie pobranymi instrukcjami musiał zostać usunięty i załadowany nowy, z miejsca faktycznego skoku brancha. Taka operacja potrafiła zjeść nawet do 200 cykli. Łatwo sobie teraz wyobrazić np. kod
który w pętli sprawdza losowe dane i dla jakiejś granicy poniżej skacze do funkcji A, a powyżej do B - predyktor tutaj niewiele może pomóc, i ładowany wyprzedzająco kod często będzie nietrafiony - co skutkować musi opróżnieniem potoku i blokadą CPU. Nawet z pozoru krótka, niewinnie wyglądająca pętla z niewielką ilością rozkazów, potrafiła wygenerować ogromne opóźnienia w stusunku do do CPU z krótkimi potokami. Intel to wiedział, dlatego musiał rozbudować kosmiczny predyktor, który mogł ratować sytuację tam gdzie się dało.

Z tego też względu P4 promowany był jako CPU multimedialny, do przetwarzania strumieni multimediów, itp. W tych zadaniach, z kodem pod te specyficzne warunki optymalizowanym, mógł rozbić AMD ze względu na przewagę w taktowaniu i de facto szybszym jednostkami do obsługi SIMD.

Podobną wpadkę zaliczył potem AMD ze zbyt długimi potokami z Buldożerach.

Autor edytował komentarz w dniu: 01.01.2017 13:44
  #67 01.01.2017 12:14

@revcorey: "rzecież urząd anty-monopolowy już się za nich zabierał, "

...i nie zabral. Opieraj sie na faktach i mysl samodzielnie. Badz ze powazny. Tzw "urzedy antymonopolowe" sa od tego, aby utrzymywac monopole, a nie je likwidowac. Wszelkie ich dzialania sa pod publike lub w celu likwidacji obcej konkurencji. Juz czas przestac wierzyc w krasnoludki.

  #68 01.01.2017 12:20

BTW: do dzis uzywam Xeona 5450 i mam wydajnosc podobna jak nowe procesory ze sredniej polki. Jesli dzieje sie tak, ze procesor sprzed 10 lat (i to procesor przecietny w momencie produkcji - zaden hardcorowy X5xxx) niewiele rozni sie wydajnoscia od najnowszych konstrukcji to znaczy, ze smrod monopolu, wzajemnego ukladu roznosci sie az na sam szczyt!

PJ4ever   1 #69 01.01.2017 12:38

Bardzo dobry artykuł, jeden z lepszych w ostatnim czasie ogólnie na wszystkich polskich portalach branży IT. Wnioski logiczne, czasem faktycznie lekko przesadzone. W kilku momentach otworzyły mi oczy na kilka czynników. Teraz pozostaje nam tylko trzymać kciuki za Ryzeny, aby troszkę pobudzić do działania jajogłowych z Intela. Zamiast zatrudniać specy od marketingu, niech ulepszą coś co jest dobre. Może również przełoży się to również na jakieś przetasowanie cen...

szyp   6 #70 01.01.2017 13:18

Dobry i ciekawy tekst. Może byś dopisał jeszcze kawałek bo ciekawie też było z Intel dual core i Intel core 2 duo. Sprzedawane równocześnie były zupełnie nieodróżnialne i nierozumiane przez klientów i większość sprzedawców. A to właśnie te dwie linie kończyły historię Pentium 4 i Pentium III.

amsteldam   4 #71 01.01.2017 13:36

Mój pierwszy zestaw PC to Monitor 15 highscreen CPU: pentium 75Mhz płyta główna shuttle hot 555, 8MB ram. Karta graficzna trident 512kb rozszerzona kością do 1MB. No i HDD którego zawrotna pojemność 1,2 GB wykraczała poza ówczesne standardy. Wszystko to za jedyne 5000 zł. Dziś za tę dokładnie samą kasę mam iiyama 144Hz 24cali, i5-6600k, Z170 pro gaming, 16GB ram 3000Mhz, chłodzenie cryorig ultimate i RXa 480 asusa plus obudowa, bez dysków.

  #72 01.01.2017 13:36

@BloodyEyes: bo w czasach AthlonaXP/64 w grach lepiej sie spisywał taki Athlon64 3000+ niz Pentium 4 3Ghz

min_onA   8 #73 01.01.2017 14:28

Smutny artykuł pisany przez intelowego fanboya/trola (nie wnikam bo szkoda czasu).

Autor edytował komentarz w dniu: 01.01.2017 14:28
  #74 01.01.2017 14:33

Kim jesteś i dlaczego piszesz takie dobre artykuły? Mam nadzieję, że płacą za to nawet jeśli są to tylko grosze. Z takim piórem doradził bym założenie własnego serwisu, ale jak wiemy wartościowe treści nie są dzisiaj w modzie, więc pewnie nic by z tego nie wyszło.

Dzięki za lekturę i pozdrawiam w nowym roku.

patefoniq   3 #75 01.01.2017 14:42

Justowanie nie gryzie, na prawdę. Tragicznie wygląda tak duża ilość tekstu, wyrównana do lewej.

patefoniq   3 #76 01.01.2017 14:43

@n33trox: Ach.. Sławetne "beiksy"... :)

wielkipiec   16 #77 01.01.2017 14:49

@patefoniq: a "naprawdę" piszę się razem ;)
A tak na poważnie, to się zgadzam, jak najbardziej. Tylko, że nie da się go włączyć tutaj! Też nie mogę na to patrzeć

  #78 01.01.2017 16:05

@szakisz: Fakt, nas nie interesuje caly proces technologiczny tylko produkt końcowy który nas będzie zadowalał i będzie miał atrakcyjną cenę, ale bez konkurencji tak nie będzie, bo wtedy ceny pójdą w górę nieproporcjonalnie do możliwości sprzetu a my i tak to kupimy bo będzie nam potrzebne :)

  #79 01.01.2017 16:22

Tylko Intela nie interesowały wydajność, ale bezpieczeństwo użytkownika. Wystarczy obejrzeć film co się dzieje, jak zdejmie się chłodzenie z pIII lub pIV, a co u AMD

biomen   8 #80 01.01.2017 16:31

@tomangelo
"W moim przypadku był chyba jakiś gorszy sort Bartona, nie dało się go ruszyć w żadną stronę, zawsze kończyło się zawieszką BIOSu, by po chwili zresetować się do jakiegoś modelu 1100+ (lub podobnie niski numer). Raczej nie kwestia pamięci, te po przestawieniu z 333 na 400 wciąż stabilnie działały, a nForce2 ponoć dobry do kręcenia. Cóż, biednemu zawsze wiatr w oczy i cegłą po głowie."

Być może, c@Aziko mi się wypowiedzieć bo w swoim towarzystwie, w tamtych czasach, jako jedyny chyba miałem AMD i nie miałem egzemplarza porównawczego. Co do zwiech, u mnie problem ze stabilnością się dopiero pojawiał po przekroczeniu taktowania pamięci 400mhz. Dopóki rdzeń się nie ukruszył procek kręcił się jak złoto i to na standardowym chłodzeniu. Bardzo dobrze wspominam tamtą linię procesorów AMD. ;)

@Azi
„ Musiałeś mieć dobrą płytę główną (pewnie na VIA) ;-)
Miałem kiedyś na serwisie podobny zestaw. Na czystej instalce XP-ka zasuwał tak, że z boku jakieś Core2 nie miało nic do powiedzenia...”

O ile dobrze pamiętam miałem MSI KT6-Delta i tak, była to płyta oparta o chipset VIA. ;) No właśnie nie powiedziałbym co do tego Core2, pamiętam jak dziś premierę Gothica 3 i znajomy miał Pentium D i tam niestety było widać różnicę. Choć mogę się mylić i wszystkich faktów do końca nie pamiętać. ;) Kończąc wypowiedź czymś optymistycznym: na zestawie Athlon XP 2500+ @2.2Ghz, 1Gb Ramu 400 Mhz i GeForce 7600GS szło grać w Gothica 3 i później pierwszego Wiedźmina całkiem znośnie. ;)

Autor edytował komentarz w dniu: 01.01.2017 16:32
GL1zdA   12 #81 01.01.2017 16:58

Apollo Pro nie był szybszy od chipsetów Intela:
http://www.anandtech.com/show/396
http://www.tomshardware.com/reviews/performance-guide,189-11.html

Intel robił płyty na chipsetach ServerWorks nie dlatego, że była jakaś walka działów, tylko dlatego, że nie miał chipsetu obsługującego w sensowny sposób SDRAMy. MTH w 820 miał błąd, a MRH-S w 840 dodawał opóźnienia. Natomiast pamięci RDRAM nie nadawały się do serwerów, bo potrzeba ich dużo, a RDRAMy tanie nie były.

Problemem Willamette nie był socket 423, a ponownie brak chipsetu obsługującego tanie pamięci, co niepotrzebnie windowało cenę zestawu. Po premierze układów serii 845 sytuacja wróciła do normy i Pentium 4 normalnie konkurowało z Athlonem XP.

HT nie było failem i nigdy nie było reklamowane jako "drugi rdzeń", wysuwanie takich tez na podstawie aukcji allegro jest nadużyciem. Testy od początku pokazywały że technologia ma potencjał w pewnych zastosowaniach, natomiast nikt nie oczekiwał dwukrotnego przyspieszenia.

  #82 01.01.2017 17:08

@sokoleokopr: a ja pamietam athhlona MP przy ktorym jak odpalilismy q3_demo to zrobil 2 razy wiecej klatek na tej samej karcie. MP nie byl popularny, tak naprawde spotkac go mozna go bylo bardzo rzadko co nie zmienia faktu ze najwyzszy P4 mogl co najwyzej MPkowi lizac stopy. AMD 64 to byl skok tak duzy ze dopiero pozniej zaczeto go doceniac. Na amd64 duzo szybciej odchodzilo kodowanie czy kompresja.
Ogolnie duzo sie dzialo w tamtych czasach. Dzisiaj intel ma odgrzewane kotlety niby optymalizowane ktore tak naprawde zmieniaja marginalnie swoje osiagi a czasami cofaja sie wstecz. AMD mam nadzieje ze wystrzeli jak z athlonami gdzie w cenie P3 kupowalo sie tak samo wydajny CPU, plyte i 512DDRow. To bylo wtedy cos. Smialem z tych co kupowali P3. Przy P4 mialem CPU za polowe P4 i juz wtedy 4Gb pamieci podczas gdy kumple mieli ledwie 256 albo co lepiej 512Rambusow :D
Skok wydajnosci na AMD byl tak widoczni ze jak czasem popatrzyli na sprzeta w chacie to sie obrazali :D

Tak samo bylo z pierwszymi prawdziwymi procesorami wielordzeniowymi ktore nie byly od intela a wlasnie AMD... tylko ze wszyscy mieli optymalizacje dalej na jeden watek i AMD tak naprawde wcale na 2 fizycznych rdzeniach nie chodzilo szybciej bo nie mialo jak. Jedynie soft do kompresji czy pierwszy Adobe mial molizowsc wykazac sie z wieloma rdzeniami - ale kopniecie bylo wtedy bez porownania lepsze niz w najlepszych intelach.

Problemem AMD byl zawsze brak dobrej reklamy. AMD zawsze mialo tak gowniana reklame ze majac w tamtych czasach duzo lepsze CPU ktore kopaly intela i w dodatku za polowe mniej nie radzilo sobie ze sprzedaza. Stosowali polityke fajnych plakacikow i chyba tylko tyle. Intel mial taka reklame ze jak wchodzilo z p4 i rambusami to wciskali ludziom kit ze to przelom i ze rambus juz zostanie a ddr amdka to kupa i tak wszedzie pisali oczywiscie ubierajac to w dyplomatyczne slowka.

Bledem AMD byly tez kadry. Zrobili to co kiedys novell... dali wolna reke inzynierom ktorzy dostawali od konkurencji na dzien dobry 2x tyle kasy co dostawali i automatycznie odchodzili. Rozmawialem kiedys z kolesiem z intella ktory sie zwolnil. I przez 2 lata nigdzie nie mogl sie zatrudnic... NIGDZIE. Co prawda dostawal od intella 1/2 tego co dostawal na stolku ale to daje wyobrazenie ze intel bal sie o to zeby nie zostal wyrolowany.
AMD puszczalo ludzi jak tylko chcieli odejsc. A z tego co pamietam odeszlo kilku ktorzy projektowali Athlony a pozniej Athlony 64 przechodzac do "konkurencji". Co z reszta intel wykorzystal podajac do publicznej informacji ze najlepsi z nejlepszych pracujac teraz wlasnie dla intela. To wlasnie takze byli inzynierowie amdka dolozyli sie do serii Core 2 i nawet sie intel z tym nie kryl.

Co do idiotyzmow AMD bylo na pewno przejecie ATI bo wtopili mnostwo kasy a pianiadze dopiero teraz zaczynaja wracac malymi kroczkami. Wtopili to i nie mieli na nastepne kroki w CPU a i jednoczesnie w GPU i ratowali sie modyfikacjami podobnie jak intel teraz.

W koncu AMD pojawili sie nowi ludzie ktorzy zrrozumieli bledy poprzednikow i musza robic sprzet dla siebie i pod siebie. stad teraz amd bedzie dozyc do optyamlizacji CPU i GPU. Obecnie taki glupi procek A10 jest tak wydajny ze ciagnie wieska nowego na fulla gdzie konkurencja na gpu ma czkawke.

Slowem AMD jest potrzebne nam - bez niego ceny prockow pojda w gore a i bedziemy dostawali gowno w ladnych pudelkach.

Co do intela to najwieksza chyba glupota bylo przejescie na rambusa ktory z zalozenia byl niezbyt wydajny juz na papierze. Bopiero pozniej przejscie na ddry przyspieszylo P4. Przejscie nowego narybku z AMD zaowocowalo nowa linie core a pozniej core 2 ktore rzeczywiscie bylo rewolucyjne pod wzgledem kontrukcyjnym i wyprowadzilo intela na wyrazne prowadzenie.

Jednak trzeba pamietac jak ludzie plakali prawie ze co rok lub dwa lata musza kupowac nowa plyte glowna bo stary slot juz nie pasowal pod nowe procki

Mam nadzieje ze amd w koncu pokaze cos na miare przeskoku jak lata temu i nie dlatego ze im kibicuje bo akurat mnie to wisi ale w rynku jesli nie ma konkurencji to jest stagnacja ktora odbije sie tylko nam zwyklym userom.

wielkipiec   16 #83 01.01.2017 17:16

@GL1zdA: dzięki za wartościowe uzupełnienie. Mam wiele uznania dla twojej rozległej wiedzy, której dowody znajduję na wielu stronach!
Wojna działów to oczywiście (bardzo popularna) teoria spiskowa. Nie sugeruję też, że HT to fail, przez Intela nie był też reklamowany jako drugi procesor. Natomiast wiem, że dużo osób tak to rozumiało, niestety z obserwacji.

  #84 01.01.2017 17:34

symultanicznej pracy - jednoczesnej pracy
dyssypacją ciepła - rozpraszaniem ciepła

overconscious1981   8 #85 01.01.2017 18:54

Bardzo źle się czytało.

Po tak długiej historii liczyłem na happy end, a tu: MONOPOL.

Mógłbyś to przynajmniej jakoś podkoloryzować, tą końcówkę.

PokerFace   10 #86 01.01.2017 19:52

@wielkipiec: AMD nie daje rady i teraz mamy takie kwiatki jak 2 rdzeniowy i3 7350 za prawie 800zł który jako tako dogania 5 letni i7: https://www.purepc.pl/procesory/intel_core_i37350_wyniki_wydajnosci_odblokowaneg... Ja tylko czekam na socket LGA 1152, różnica jednego pinu ale jeśli będziesz chciał nowy procesor to lecisz też po nową płytę główną :D

Nidrax   3 #87 01.01.2017 20:05

Jestem prostym człowiekiem. Widzę wielkiegopieca, klikam like.

overconscious1981   8 #88 01.01.2017 22:22

@Vegost: "To tylko pokazuje jak głupi jest system prawny na świecie."

Dobrze, że ty jesteś mądry. To działania rozmaitych urzędów i władz powodują, że coś się opłaca a coś nie.
Trudno ci to zrozumieć, bo jesteś pewnie młody, wychowany na Korwinie.

To np. działania UKE w Polsce spowodowały to, że konkurencja i wirtualni operatorzy mogli wejść i im się to opłacało. Co z kolei spowodowało ogólny spadek cen.

Na wolnym rynku żaden wirtualny operator by nie wszedł, bo to z założenia sztuczny twór. Nie byłoby także Playa, gdyby nie wymuszone stawki MTR (asymetria).

"Myślisz, że to obchodzi konsumentów?"

Bez wątpienia monopol obchodzi konsumentów.
Jak np płaciłem 3 zł za minutę połączenia komórkowego i ponad 200 zł za Internet, to nie byłem zadowolony.

Z monopolu Intela też nie będę zadowolony (pamiętam go), tak jak z monopolu Microsoftu (też go pamiętam w znacznie ostrzejszej formie niż teraz).

Autor edytował komentarz w dniu: 01.01.2017 22:30
Anirer   3 #89 02.01.2017 07:17

ja Dalej kibicuje AMD Intel to strasznie robi klijentów w bambuko, $$$ :) mam nadzieje że AMd nie da plamy z nowymi procesorami w 2017 roku :) Do Boju Czerwoni ! przykład Intel Core i5-3570K 825zl AMD FX-6300 429zł AMD X8 FX-8350 690 zł do tego 2 radeony w CrossFire i mamy kompa za połowe ceny co intel + nvidia :) da się da :P

hiropter   11 #90 02.01.2017 08:33

Artykuł fajny, choć moim zdaniem AMD zaczęło wygrywać gdy pokazało pierwsze procesory z seri K7 (czyli Athlony). Pentum III wymiękało przy nich i w większości testów syntetycznych siadał na ławce z płaczem. Sam posiadałem K7 z zegarem 600MHz i pamiętam jak by to było dzisiaj, jak kolega z nowszymi już Pentium III 1000MHz nie mógł uwierzyć, że w niektórych testach jego procesora jest gorszy - minimalnie, ale gorszy ;)

hiropter   11 #91 02.01.2017 09:31

@qrvishon: To dobrze słyszałeś... tylko pamiętaj że K7, to własnie pierwszy Athlon, który faktycznie dawał radę i gonił Intela aż miło. Dominacja AMD trwała w sumie do czasu pojawienia się serii "Core iX" - gdzie X, to cyferka 3, 5 lub 7 :) Później AMD próbowało jeszcze serii FX, ale ona okazała się porażką. Przynajmniej w testach, bo w domowym zaciszu spisywała się całkiem nieźle i jedyną bolączką pełnego zestawu AMD (CPU+GPU) były w sumie sterowniki, które powoli zaczynają wychodzić na prostą.

hiropter   11 #92 02.01.2017 09:35

@przemo188: Minęło czy przyszedł rachunek z Polsatu :)

hiropter   11 #93 02.01.2017 09:41

@n33trox: Xeon E3-1230V3 to faktycznie fajny procek, a jego cena jest wysoka, bo stolec - Oj! Przepraszam, dolar ma wysoki, a przez to niekorzystny dla nas kurs.

BorsukPruski   2 #94 02.01.2017 10:40

@Vegost: jezeli amd upadnie to bedziesz płacił podatek od monopolu intela zresztą już go płacisz bo amd przestało sie liczyć. I nikt cie nie bedzie pytał o zdanie czy chcesz czy nie.

Swiat jest czasem bardziej skomplikowanyc niż sie moze wydawać. Managery intela, microsoftu, googla itp czytali o AT&T i nie chcą podzielić ich losu.

I akurat tu prawo nie jest gupie. Bo gdyby MS podzelili na 3 firmy i zrobili 3 konkurencyjne systemy w jakimś kompatybilne ze sobą to ludzie na pewno dostali by lepszy produkt.

Swego czasu AT&T mialo dominującą pozycje w usa na rynku telekomunikacji. Już nie ma...

  #95 02.01.2017 10:58

@hiropter: Zapomniałeś napisać w którym momencie się obudziłeś.

n33trox   6 #96 02.01.2017 11:50

@hiropter: Ano fajny, ale gorący nieprzeciętnie, jak się mu da coś poważniejszego do roboty, zwłaszcza coś, co wykorzystuje instrukcje AVX2 - wtedy potrafi nawet do ponad 80 st się rozgrzać przy włączonym rozszerzonym turbo (płyta MSI, 4 x 3,7 GHz + HT jednak robi swoje), z chłodzeniem Silentium PC Fortis (ten pierwszy jeszcze) + pasta Zalman STG-ZM2.

fakvat   3 #97 02.01.2017 13:02

Trzeci najszybszy komputer na świecie wykorzystuje procesory AMD. Co ciekawe pierwszy nie korzysta z procesorów Intela.

Autor edytował komentarz w dniu: 02.01.2017 13:58
patefoniq   3 #98 02.01.2017 13:51

@wielkipiec: "a "naprawdę" piszę się razem ;) "

Wiem, ale za dużo już pisania na komputerze. Człowiek traci umiejętności pisania poprawnego... Ale dziękuje za uwagę ;-)

elita   6 #99 02.01.2017 14:41

@Roman syn Ryżu (niezalogowany): możliwe że chodziło o L2 który był na płytce obok w slocie.

aope   7 #100 02.01.2017 14:46

@Vegost: "Intela nie obchodzi AMD"

Oh, ależ Intela BARDZO obchodzi(ło) AMD. Tak bardzo ich obchodzi(ło), że likwidowali umowy z dostawcami, chcącymi oferować produkty AMD i Intela dla klientów. Procesory AMD były sprzedawane "spod lady" i to w największych hurtowniach w Polsce (!). Dobrze pamiętam te czasy. Zresztą Intel został za to ukarany, ale co z tego? Mleko się rozlało. Narzekasz, że AMD nie ma kasy - tak, nie ma i to nie tylko z uwagi na takie a nie inne inwestycje ale głównie z racji nieczystych zagrywek ze strony niebieskich.
To samo zresztą odwalała nVidia. Ich zamknięte technologie, ingerowanie w wydajność gier na kartach AMD (słynny Batman i jego wpisane na sztywno identyfikowanie karty) i masa innych zagrywek.
I fajnie, że Ty masz na to wywalone i jeszcze kibicujesz Intelowi i nVidii. Ciekaw jestem czy tak samo będziesz kibicował, jak za kilka lat za procesor/kartę od niebieskich/zielonych zapłacisz jak za zboże a co zabawniejsze - nie będziesz miał żadnego wyboru i będziesz MUSIAŁ tyle zapłacić i będziesz miał świadomość, ze doprowadzili do tego tacy jak Ty. Smacznego.

Autor edytował komentarz w dniu: 02.01.2017 14:48
k10d   4 #101 02.01.2017 15:16

@Vegost: "pobierał mało ciepła"

Właśnie stworzyłeś nowy procesor :)

  #102 02.01.2017 15:45

AMD jest jak Polska

  #103 02.01.2017 15:55

@elita: Chodzi o to, że Celeron 300A był w nowej architekturze "Mendocino". Miał wbudowane 128 kB Cache L2 w rdzeń procesora. Działał on z większą prędkością niż rdzeń w układach Pentium II, który był osobnym układem na płytce procesora i działał z 1/3 prędkości procesora.

Architektura Pentium Pro wprowadziła osobną magistralę dla pamięci cache. Dlatego w tanim Pentium II była taka obudowa, by zmieścić dodatkowe układy pamięci na płytce procesora. Potem przeniesiono tą pamięć do rdzenia i zmieniono podstawkę na socket.

WODZU   18 #104 02.01.2017 16:36

"Coś takiego było jednak niemożliwe do wytłumaczenia klientowi..."

Podobnie jak zalet telewizorów, apartów cyfrowych, smartfonów itd., dlatego producenci poszli w megapiksele, megailości HDMI, gigabajty RAM i popularne stało się określenie "wincyj rdzeniuf". Produkty dla mas muszą być określane ilością, nie jakością lub porównaniem korzyści względem innego rozwiązania. Aktualnie, utrzymywane na odpowiednim poziomie ciemnoty społeczeństwa, wychowane są w kulcie ilości nad jakością. Ot, zasługa marketów.

"Takie podejście wymagało oczywiście samodzielnych jednostek obliczeniowych, co w praktyce oznacza płyty główne z wieloma gniazdami na procesory."

Łezka się w oku kręci :D Swego czasu, gdy studiowałem, miałem komputer z płytą dwuprocesorową i dwoma zamieszczonymi na niej Celeronami, bo do renderingu żadna moc obliczeniowa nie była zbyt duża :)

A sam wpis bardzo ciekawy.

Autor edytował komentarz w dniu: 02.01.2017 16:57
Saphrii   12 #105 02.01.2017 18:23

Miałem to szczęście by paść ofiarą owej "czkawki" - będąc jeszcze w liceum naciągnąłem rodziców na zakup komputera z Pentium4 2,4GHz + RDRAM 1066. Płyta główna Gigabyte GA8IHXP na chipsecie 850e jedna z bardziej wypasionych.
Tylko te Rambusy... pamiętam jak dziś, że za sumaryczne 512MB RDRAM Kingston moi rodziciele wyłożyli horrendalne 1800zł(!) (czułem się nieswojo bo budżet już był naciągany, no ale miał być sprzęt przyszłościowy)
Zestaw był szybki, a dostał kopa jak wymieniłem w niedalekiej przyszłości procesor na jedyny z Norhwoodów 478 na szynie 533 z technologią HT - 3,06GHz. Ta maszynka bardzo długo nie dawała za wygraną, łyknęły ją dopiero komputery z procesorem 775 z pamięciami DDR w dual channel.
Komputer z uzupełnionym/wymienionym do 2GB ramem (ich ceny w końcu spadły) służył mi praktycznie do końca studiów. Na nim tworzyłem rendery na prace licencjacką i magisterską w archicadzie, które wygrzewały komputer po 8-12h na przeciętnej jakości render. Ale dawał radę.

Z perspektywy - Pentium 4 (od Northwoodów) + Rambus, to było dobre połączenie. Komputery w tym duecie w swoim czasie wyróżniały się wydajnością na tle innych P4 współpracujących z SDR czy DDR. Rambusy zabiła cena, oraz niebotyczne ilości ciepła jakie generowały.

  #106 02.01.2017 18:46

@@Saphrii "Pentium 4 (od Northwoodów) + Rambus, to było dobre połączenie. Komputery w tym duecie w swoim czasie wyróżniały się wydajnością na tle innych"

Intel w ogóle lubi dziwaczne rodzaje pamięci RAM, w czasach podstawki 775 w segmencie serwerów, stacji roboczych, i najbardziej wypasionych platform do grania pojawiło się rozwiązanie o nazwie FBDIMM.
Pamięci te wyposażone były w solidne metalowe radiatory, nagrzewały się do sporych temperatur i potrafiły odprowadzać do... 10W ciepła na moduł. Aktywne chłodzenie tego 'wynalazku' było koniecznością.

Jx1   7 #107 02.01.2017 19:53

Bardzo dobrze się czytało. Lubię taki styl: lekki, inteligentny i z dobrym humorem.

qrvishon   3 #108 02.01.2017 20:26

@hiropter: Raczej bym rzekł, że juz generacja Core 2 Duo/Quad odstawiła AMD.

Azi   12 #109 02.01.2017 23:22

@biomen: Zgadzam się, tylko Pentium D celował głównie w laptopy (o ile pamiętam). To początek jak Intel zaobserwował dość mocne zużycie energii, tam się cyrki działy :) Ograniczyli moc procka (choć sama architektura była niezła). Podobno były plany zastosowania mobilnych P4 pod pecety ale właśnie NetBurst to "zagiął".
Trudno, ten kawałek historii komputerów opisany jest dobrze - co do ewolucji 384/486 można jeszcze dołożyć co-nieco :)
Pozdrawiam, najlepszego w Nowym Roku!

ubik   4 #110 02.01.2017 23:45

@Roman syn Ryżu (niezalogowany): Trochę kultury. Żeby konkurencji opłacało się cokolwiek produkować, to najpierw musi mieć możliwość jakiejkolwiek walki - np. intel musi jej sprzedać licencję (umożliwić korzystanie z patentów) na produkcję procesorów zgodnych z x86. To samo tyczy się AMD, które posiada patenty związane z x86_64. To nie jest otwarty rynek.

  #111 03.01.2017 00:08

@ubik: Twój punkt widzenia, to punkt widzenia rozpieszczonego konsumenta, a nie przedsiębiorcy. Nikt nikogo nie zmusza do robienia x86. Ten rynek nie jest nawet największym.
Tak samo nikt nikogo nie zmusza do kupowania najnowszych procesorów. Były czasy, kiedy ludzie mieli komputery z 10 letnimi technologiami i świat się nie zawalił.
Rzeczy nie dzieją się z chciejstwa, tylko z możliwości zarobienia. Ideologia to opium dla mas. Jeśli o mnie chodzi to mogę robić soft na każdą popularną platformę.

Saphrii   12 #112 03.01.2017 03:15

@sdj (niezalogowany): jak z czymś nietypowym to do mnie :) mam otóż stację HP XW8400 z FBDIMM i już przy 4z8 kości wentylator nad nimi cały czas wyciąga dobrze ciepłe powietrze. Wszystko pięknie - zimą komp robi za farelkę zastępującą c.o., a latem saunę... niestety serio i czasami nie jest mi z tym do śmiechu.

ubik   4 #113 03.01.2017 15:18

@Roman syn Ryżu (niezalogowany): Kurcze, tylu frajerów. Od 30 lat spokojnie mogliby wykosić intela i całą architekturę x86 (i jej pochodne) w komputerach domowych i biurowych a tu lipa. Nikt nie korzysta. Nawet konsole do gier (chociażby Xbox One i PS4) jej używają, bo nie opłacało rozwijać się innych architektur...

Shaki81 MODERATOR BLOGA  38 #114 03.01.2017 22:32

I pomyśleć, że jedno rdzeniowe Pentiumy D (na podstawce 478 i 775) jeszcze żyją i mają się dobrze. Ja mam jeszcze jakieś 20 stacji roboczych z tymi procesorami.

wielkipiec   16 #115 04.01.2017 10:23

@Shaki81: jednordzeniowe Pentium D? Na pewno? "D" były "dual", a więc dwurdzeniowe. Wszystkie. Może masz pod opieką rdzenie, których nie zauważyłeś :)

ra-v   13 #116 04.01.2017 19:10

Nie wiem co ma Radeon do artykułu o procesorach :)
Poza tym chciałbym mieć takie problemy z Radeonami, w których wydajność po latach zauważalnie przebija produkty NVIDIA :)

Znajdź dziś firmę, która nie stosuje oszustw - vide "nowa architektura" procków Intela, w których różnica wydajności waha się w granicach różnic częstotliwości. Ale Intel może, a klienci to kupią. Niektórzy może zmienią płytę, bo jakaś nie dostanie UEFI dla nowych procków.

A stacjonarny Pentium D był faktycznie 2 rdzeniowy, chociaż tutaj można powiedzieć nawet o dwuprocesorowości. Natomiast Celeron D był jedno rdzeniowy, może tylko wyszedł w wersji mobilnej (głupi flash na stronie potrafił go zabić).

ayufan   4 #117 09.01.2017 05:49

@IrasDeeJay: Do dziś są obudowy z tym tunelem np swego czasu polecany do tanich komputerów Tacens Prior ma taki tunel.

  #118 12.01.2017 12:08

Przyjemnie się czytało.
Ale o wiele ciekawszy IMO byłby artykuł o Itanium, czym miało to być w teorii, czym było w praktyce, i o jego upadku.

kilijanek   9 #119 12.01.2017 13:21

@elita: Pamiętam, w sumie tylko przegapiłem etap wciskania Willamette (P4), gdyż ja tkwiłem na P2 266MHz (było to jeszcze po premierze WinXP jakoś)

Johny   6 #120 05.02.2017 11:13

@kziohelikopter (niezalogowany): Dokładnie tak,byle jaki procesor za 200 USD,bo nie byłoby alternatywy.Dlatego trzeba dać AMD szanse,żeby was było stać na następne komputery,zanim wszystko zagarnie Intel.To rywalizacja AMD Intel ukształtowała rynek dzisiejszych PC.Intel wdrażał jakąś technologię,AMD odpowiadało i na odwrót.

Kotletor   8 #121 13.02.2017 10:38

ja jeszcze mam prescota, kurzy się w szafie :) faktycznie, niezły piekarnik, pożerał zdaje się ok. 130W, niewiele mniej nawet jak nic nie robił. jedyna zaleta to HT na jednym rdzeniu.

aPoCoMiLogin   11 #122 01.03.2017 15:26

@Vegost: intel w 2009 zapłacił karę 1.25 miliarda dolarów za swoje praktyki, przez które AMD nie miało hajsu na rozwój. Proces trwał od ~2005 roku, a samo podejście intela do konkurencji mogło trwać od lat. W skrócie intel oferował producentom zniżki za np opóźnienia związane z produktami AMD (płyty główne itp). Miejscami nawet groził producentom. Monopol jest bardzo zły i nie ważne jak bardzo miłujesz firmę A od firmy B.

Intel wydał 1.25 miliarda na karę + "rabaty" a zarobił na tym zdecydowanie więcej, bo opóźnił swojego rywala na całą dekadę. Potrzeba było ponad dekady, żeby podkopywana latami firma w miarę stanęła na nogi.

źródło: https://en.wikipedia.org/wiki/Advanced_Micro_Devices,_Inc._v._Intel_Corp.

aPoCoMiLogin   11 #123 01.03.2017 15:30

@Vegost i teraz pomyśl, że gdyby AMD nie straciło tak dużo z powodu nieczysto grającego intela, pomyśl jak dużo zyskalibyśmy my, bo te firmy musiałby o wiele bardziej konkurować między sobą i rozwój mógłby być znacznie szybszy. Ceny mogłoby być dużo niższe. A tak? Mamy +5% do wydajności oraz +10% do ceny.

  #124 19.06.2017 22:02

Wciąż używam P4 HT 3Ghz. Nie narzekam, tylko ta temperatura... :/

Kotletor   8 #125 22.06.2017 10:03

@koloyt (niezalogowany): też mam taki, nazywa się Prescot, TDP 90W, koszmar. kurzy się w szafie :)