Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

Pecety ślepą uliczką ewolucji?

Już kilkukrotnie obwieszczano śmierć architektury PC, opracowanej przez IBM w 1981 roku na bazie mikroprocesora Intela. Jednak pomimo niedoskonałości pokonała ona wszystkich konkurentów (Atari, Amiga/Commodore, ZX Spectrum, stacje robocze Silicon Graphics, o procesorze Alpha mało kto pamięta). Nawet sam Intel nie odwrócił tego trendu proponując 64-bitowe procesory Itanium, a architekturę 64-bitową do świata pecetów wprowadził AMD. Nie jest ona tak doskonała jak Intela, za to kompatybilna wstecz aż do procesora 8086. Ostatnim bastionem pozostał Apple, lecz dostrzegając koniec procesorów PowerPC przeszedł na procesory ze świata pecetów w 2005 roku. Inne procesory są jeszcze stosowane w serwerach, lecz SUN ze swoim SPARC stał ostatnio nad grobem i został przejęty przez Oracle, coś tam jeszcze próbuje zdziałać IBM, lecz na rynku potężnych superkomputerów.

W latach dziewięćdziesiątych wydawało się, że przyszłość należy do procesorów RISC. Nazwa oznacza zredukowaną ilość instrukcji, choć w rzeczywistości te procesory mogą ich mieć więcej. Różnica tkwi głównie w wyeliminowaniu instrukcji odwołujących się do pamięci RAM. Współcześnie procesory x86/x64 w rzeczywistości są procesorami RISC, tylko przekształcają instrukcje stosowane przez poprzedników na zrozumiałą dla siebie formę. W tym przekształcaniu tkwi ich pięta achillesowa, ale o tym za chwilę. Współczesne kompilatory programów po prostu pomijają w kodzie maszynowym instrukcje odwołujące się do pamięci RAM, dzięki czemu jądro RISC może rozwinąć skrzydła.

Wydaje się, że PC ma świetlaną przyszłość. Jednak dostrzegam pewne rysy, które świadczą, iż komputer PC właśnie dogorywa na naszych oczach:

1) Względy fizykalne. Nie można skonstruować krzemowego procesora pracującego z zegarem większym niż ok. 4GHz. Do wyższych częstotliwości trzeba stosować specjalne materiały, jak arsenek galu, co eliminuje je z produkcji skomplikowanych procesorów. Procesory Pentium4 osiągnęły zegar 3,6GHz już 5 lat temu, to oznaczało koniec ich ewolucji. Obecne Core2Duo/Quad/i5/i7/Phenom znowu się zbliżają do tej granicy.

2) Architektura wnętrza. Pięta achillesowa procesorów x86/x64, w porównaniu z "czystym" RISC, tkwi w nadmiernej komplikacji układowej. Przykładowo, procesor w komputerze ma przynajmniej kilkadziesiąt milionów tranzystorów, natomiast procesor ARM (stosowany m.in. w palmtopach i telefonach komórkowych) może ich mieć kilkadziesiąt tysięcy. Pobiera góra ułamek wata energii, pecetowy kilkadziesiąt wat. O ile w przypadku pojedynczego chipa komplikacja nie ma większego znaczenia, bo procesory wykonuje się podobnie do odbitek fotograficznych, jednak utrudnia konstrukcję procesorów wielordzeniowych.

3) Niska skalowalność. Nie można już dalej podnosić zegara, drobne zmiany w konstrukcji dają niewielki przyrost wydajności. Jedyną drogą jest zwiększanie ilości rdzeni. Dwa rdzenie to prawie dwa razy większa wydajność, jednak cztery rdzenie to w praktyce wydajność około 50% większa niż dwa rdzenie. Może wkrótce pojawią się procesory ośmiordzeniowe, lecz przeciętny użytkownik raczej nie zauważy już drastycznej różnicy. Jest też techniczny problem w upakowaniu tylu rdzeni, toż to procesor o kilkuset milionach tranzystorów. Coraz mniejszych tranzystorów z każdym poziomem technologicznym. To oznacza większe koszty produkcji (więcej niesprawnych procesorów z linii produkcyjnej), droższe testy jakości i większą awaryjność. Wiele rdzeni przydaje się natomiast w serwerach, z których korzystają setki czy tysiące użytkowników jednocześnie. Dla porównania, procesory o "czystej" architekturze RISC, stosowane w konsolach do gier, mają kilkadziesiąt do ponad stu rdzeni. I stosowanie do tego większą wydajność.

4) Skoro klasyczny pecet dochodzi do granic swoich możliwości, dalszą wydajność próbuje się osiągnąć zaprzęgając procesor karty graficznej. Jednak może on dokonywać tylko specyficznych obliczeń. W zastosowaniach naukowo-technicznych ma to znaczenie, w domowych nieco mniejsze. Pozwala skrócić przekodowanie filmu np. z godziny do 5-10 minut dla współczesnych kart. W przyszłości jeszcze mniej, tylko po co? I taka karta swoje waży i pobiera, a coraz popularniejsze są laptopy.

5) Wystarczająca wydajność. Jedynie gracze potrzebują coraz szybszych komputerów, do innych zastosowań domowych już od kilku lat mają wystarczającą wydajność. Dzisiaj kupiony komputer będzie mógł służyć, aż ze starości nie padnie (co tak długo może nie potrwać, zważywszy na coraz gorszą jakość wykonania). Dla przykładu, teraz siedzę na komputerze: Core2Duo 1,8GHz (można przełączyć na 2,4..2,6GHz), 2GB RAM DDR400, dyski 2x1TB SATA, grafika GeForce6200a AGP, chipset i865G (powstał gdzieś w 2002 roku), aktualnie Windows 7 i Windows XP, inne (m.in. Windows 95, 98, NT4) na wirtualnym komputerze. Co prawda nie jest to stary komputer, najstarszy podzespół ma 3 lata (wyjątek - modem sprzętowy PCI gdzieś z 2002 roku), takie zestawienie jest ze względu na możliwość testowania naprawdę starych systemów operacyjnych. Może wymienię na nowszy, może nie, ale nie z powodu słabej wydajności. Jedynie jak chcę przekodować film z DVD na MPEG4 muszę poczekać z godzinę, ale to nie ma znaczenia (ileż filmów można zgrać w ciągu dnia?). 1GB RAMu wystarczał aż nadto, zwiększyłem jedynie ze względu na owe wirtualne komputery. Choć, jak okazało się, niepotrzebnie.

6) Koniec ewolucji pozostałych podzespołów. Modemy doszły do końca swoich możliwości w 2001 roku, dyskietki w latach osiemdziesiątych, BlueRay ma być ostatnim standardem płyt, choć nie może się przebić ze względu na cenę. W klawiaturach i myszkach nie ma już ewolucji, panuje wręcz regres - modele sprzed kilku lat były znacznie wyższej jakości niż obecnie. Najlepsze klawiatury produkowano w latach osiemdziesiątych (na halotronach). Kamerki mają wystarczające parametry, chyba że ktoś kupi "tani" model. Głośniki nie podlegają jakiejś ewolucji, są konstrukcyjnie rozpracowane od dziesięcioleci. Co prawda TDK próbowało wprowadzić typu NXT, ale lud nie wiedział co to.

Dyski twarde stoją przed "przełomem", czyli SSD. Osobiście sceptycznie jestem do nich nastawiony. Górują czasem dostępu oraz nieco większą szybkością odczytu, lecz mają ograniczoną liczbę cykli zapisu (nie powinno się na nich umieszczać pliku wymiany). Z większymi pojemnościami może być problem, gdyż w komórkach pamięci półprzewodnikowej zdarzają się błędy spowodowane m.in. promieniowaniem kosmicznym, ale może to rozwiążą jakimiś systemami korekcji (podobnie jak w pamięciach RAM serwerów). Tradycyjny zapis magnetyczny jest bardziej trwały. W najbliższej przyszłości optimum to mała szybka pamięć SSD (64-256GB) na pliki systemowe lub w laptopach, a na magazyn danych tradycyjny dysk twardy.

Ciekawe, czy tradycyjny dysk ma jakieś fizyczne ograniczenia w gęstości zapisu? I po co przeciętnemu użytkownikowi więcej niż kilka TB? Tyle może być potrzebne do kolekcji filmów FullHD, lecz byłaby ona bardzo kosztowna, rozwiązaniem są wypożyczalnie filmów online, ale w takim przypadku filmy goszczą na dysku tylko kilka dni. Niektórzy użytkownicy mogą potrzebować takich pojemności, lecz większość nie. Coraz popularniejsze są laptopy jako jedyny komputer w domu, ich parametry wystarczają przeciętnemu użytkownikowi.

Czyli pecet niczym dinozaur, osiąga swój kres potęgi, w każdej chwili może się załamać pod swoim własnym cielskiem i zostać zdetronizowany przez jakiegoś małego, sprawnego ssaka. Jedynie przy życiu trzyma go przywiązanie użytkowników do Windowsa, brak jakiegoś konkurencyjnego ssaka.

Uważam, że inicjatywa Google z systemem Chrome OS ma nawet sens, w tym szaleństwie jest metoda. Takie komputerki nie mają zdetronizować peceta, tylko go uzupełnić, będą służyć jako lekki, przenośny internetowy terminal obok "dużego" peceta, coraz częściej przybierającego postać laptopa z dużym 17-calowym monitorem lub All-In-One (wszystko w monitorze). Potrzeba na chwilę skorzystać z internetu albo z edytora tekstu, po co uruchamiać coś tak dużego, wystarczy sięgnąć po bezgłośnego, startującego w kilka sekund netbooka, a pliki i tak zsynchronizują się poprzez sieć z komputerem stacjonarnym. Zapewne są jakieś statystyki mówiące, do czego używa się komputerów, i na pewno coraz częściej jest to internet.

Aplikacje webowe działają niezależnie od platformy sprzętowej, więc ChromeOS zagości na tanich (ok. 350zł) mini-laptopach i nettopach z prostymi procesorami ARM, pochodnymi starego RISC. Im większa ich popularność, tym więcej ciekawszych aplikacji. Po jednym rdzeniu pojawią się dwa, potem cztery, wkrótce 128 (jak w Playstation3), a miniaturowy komputerek przewyższy wydajnością każdego peceta.

Być może stoimy na progu technologicznego przełomu. 

Komentarze

0 nowych
treuer25   6 #1 15.02.2010 17:36

Odnosząc się do twoich przemyśleń, chciałbym powiedzieć ze jak najbardziej się z nimi zgadzam.
Architektura x86/x64 tak naprawdę stoi już u kresu swoich możliwości.Potrwa to pewnie jeszcze parę lat, ale jednak nie zdziwię się gdy powoli będzie odchodzić do lamusa..
Ja jeszcze pamiętam w sumie początki tej architektury, miałem kiedyś 0286, później amiga 500 ahh to były czasy...
Pozdrawiam...

Otaq   4 #2 15.02.2010 18:19

Moim zdaniem ludzie bardzo szybko przekonają się do architektury ARM. Jak tylko zacznie się moda na tablety. Ludzie zauważą, że w praktyce na co dzień nie korzystają z domowego pieca, bo do wszystkiego wystarczy im małe i lekkie urządzonko.
Do tego duże monitory (telewizory) All-in-one, do oglądania telewizji i filmów Blu-ray, które w kilka sekund można przełączyć na jakiś lekki minimalistyczny systemik żeby sprawdzić mejle, oglądnąć klip na youtube, czy przeglądać internet wygodnie z fotela.
Jak ktoś będzie chciał się rozerwać i trochę pograć to odpali konsolę stojącą obok telewizora. Samo przejście pomiędzy poszczególnymi urządzeniami będzie płynne i szybkie.

Tak mniej więcej widzę przyszłość multimediów i komputerów. Tylko jakoś nigdzie nie było mowy o pececie...

PS. Procesory ARM mają jedną zasadniczą przewagę nad "tradycyjnymi" x86 i x64 - mały pobór prądu, i niska temperatura pracy. Nie potrzebują głośnego wentylatora, pozwalają na produkcję małych, lekkich i _ekologicznych_ komputerków. Czemu nikt jeszcze nie reklamuje procesorów ARM i netbooków/smartbooków (czy tabletów) z nimi jako rozwiązania ekologicznego? Przy obecnym szale na pewno trafiłoby to na podatny grunt.

  #3 15.02.2010 18:39

@Otaq | 15.02.2010 18:19 : Brakuje tam Windows, a Microsoft się z tym nie kwapi. W dodatku, to raczej trudno znaleźć coś opartego na tej architekturze w sklepach. Teraz nie zamierzam kupowania czegoś opartego na ARM, jednak przydałby się jakiś link do dobrego zestawu.

MaRa   8 #4 15.02.2010 20:06

Właśnie powstaje nowa generacja przeglądarek - nie tylko pozwolą na używanie aplikacji webowych, ale nawet realistycznych gier. Od kilku lat są gry internetowe, lecz jak dotąd mają dosyć prostą grafikę.

Z kartami graficznymi też dostrzegam kres, choć jeszcze kilka lat minie - od jakiegoś czasu gry mają jakość filmową, pojawiają się o jakości FullHD. Jeszcze trochę, a nie będzie po co zwiększać możliwości grafiki, nie może być bardziej realistyczna od świata realnego. W przypadku filmów FullDH już są głosy, że obraz jest zbyt ostry i szczegółowy, wręcz nienaturalny.

Apple przeszedł 5 lat temu na procesory Intela, gdyż ta firma w odróżnieniu od IBM miała plany rozwoju na najbliższe 10 lat. A 5 lat już minęło, zostało jeszcze 5. Jakoś nie widać przełomowych konstrukcji, zmiany są raczej kosmetyczne, np. integracja kontrolera pamięci, integracja chipa graficznego. Nadal podstawowy procesor ma 2 rdzenie, topowy 4, nie zanosi się na zwiększenie ilości. Albo Intel dawkuje nowości, by się zbyt szybko nie wyczerpały, albo nie za bardzo wie co dalej.

dragonn   11 #5 15.02.2010 20:48

Warto również dodać że zbliżamy się już również do granicy
miniaturyzacji procesorów, z tego co pamiętam to granicą jest 22nm, ile teraz mamy 45nm, planowane 32nm? Wychodzi na to że jeszcze jeden skok i koniec. Ciekawe ile lat jeszcze kompy będą bazować na półprzewodnikach? Już teraz są projektowane procesory optyczne, bardzo energooszczędne, a do tego diabelnie szybkie, tak szybkie że podobne gdyby je teraz wprowadzono to spowodowało by to wielki chaos, bo podobno są wstanie złamać wszystkie dotychczas wymyślone metody szyfrowania.

Otaq   4 #6 15.02.2010 21:21

@notgnucy
"Brakuje tam Windows"
Mi osobiście niespecjalnie to przeszkadza. Zresztą wszystko zależy od perspektywy jaką się przyjmie. Telefony też nie mają Windowsa (oprócz Win Mobile, który i tak się sporo różni od biurkowego) i jakoś ludzie na to nie narzekają (a smartfony zaczynają doganiać komputery jeśli chodzi o zastosowania czy nawet moc). Poza tym jeśli rynek się zmieni to MS się dostosuje. Widać po Win Mobile7, że starają się nie stać w miejscu tylko gonić konkurencję (chociaż zostali trochę w tyle).

@dragonn
Tą granicą jest raczej 12nm. Przy takim rozmiarze tranzystora do gry zaczynają wchodzić zjawiska kwantowe - średnica atomu krzemu jest rzędu 0,1nm czyli taki procesor miałby 120 atomów szerokości, ciężko wyobrazić sobie większą miniaturyzację.
"Procesory optyczne" o których mówisz to jeden z rodzajów procesorów kwantowych (wykorzystujących akurat światło lasera). Ale problemem nie są ich zdolności w deszyfracji ale raczej to, że ta technologia jest jak na razie w powijakach i bliżej jej do science fiction niż do biurka ;)

Otaq   4 #7 15.02.2010 21:23

Tfu... ale walnąłem gafę...
Oczywiście TRANZYSTOR w procesorze miałby 120 atomów szerokości a nie cały procesor...

  #8 16.02.2010 07:06

Jeden z najlepszych blogów! Super

Neutralny   3 #9 16.02.2010 10:58

Przyszłość mają kwanciaki (:D, że tak ich nazwę). Zastanawiam się tylko po co zwykłemu userowi taki komp? To będzie miało taką moc obliczeniową...

MaRa   8 #10 16.02.2010 11:13

Komputery kwantowe to na razie teoretyczne rozważania, daleko im do praktycznych zastosowań.

Współczesny komputer z czterordzeniowym i7 ma taką moc obliczeniową, że użytkownikom pecetów z lat dziewięćdziesiątych włos jeżyłby się na głowie (przykład - ówczesna potężna stacja robocza Silicon Graphics z procesorem 180..400MHz, czyli architektura i wydajność współczesnej ramki na zdjęcia) . Ale jakoś Microsoft potrafił zagospodarować, system i programy działają od tamtego czasu bez różnicy.

corrtez   12 #11 16.02.2010 12:52

Nie znam sie za bardzo na robotyce i sztucznej inteligencji ale takie "kwanciaki" jak to nazwal Neutralny moglyby zostac uzyte do budowy np. inteligentnych i samouczácych sie maszyn.
Troche to starszne ale mysle ze nie uniknione...
A blog bardzo fajny, oby wiecej takich.

Extraordinarykid   6 #12 16.02.2010 13:25

Akurat!

Prędzej Internet Explorer 6 zniknie, niż PC doczeka się swojej śmierci.
Aktualnie komputery te już dużo pokazały i można w sumie powiedzieć, że są już na wykończeniu.
natomiast zauważyć trzeba, że dzisiejsze programowanie działa w taki sposób, aby utrzymać te ograniczenia przy życiu i ciągnąc z tego w dalszym ciągu zyski.
panele wielozadaniowe, tablety i pozostałe komputery All in One są w porządku, jednak do stworzenia czegoś one i tak nie wystarczą, bo cechują się bardzo ograniczonymi możliwościami rozbudowy.
W wielu firmach wciąż pracuje się na PC zbudowanych w oparciu o procesory na socket 462.
Skoro jest ich tak wiele, to jeszcze długo czekać, aż wszystkie Core i pozostałe przejdą do historii.

"Być może stoimy na progu technologicznego przełomu."

Być może.

Ale kiedy osiągniemy jego dojrzałość ?
I czy w ogóle to nastąpi.

Super wpis ;)

BenderBendingRodriguez   6 #13 16.02.2010 21:34

@Extraordinarykid

Widzisz era dochodzi do końca bo przeciętni użytkownicy ciągle korzystają z prostych programów i współczesne procesory spokojnie im starczą bo ile potrzeba żeby słuchać muzyki :)??

Stacje robocze profesjonalne do obróbki zdjęć, filmów itp. owszem potrzebują mocy ale to jest ułamek rynku bo większość to są jednak notebooki i komputery do codziennego użytku.

Prawdopodobnie teraz będą się starać zmniejszać zużycie energii, zmniejszać i zwiększać wydajność na każdy MHz.

BenderBendingRodriguez   6 #14 16.02.2010 21:35

Poprawka [...]zmniejszać procesory wide proces 28nm.

MantisGhost   4 #15 17.02.2010 23:19

A ja się muszę nie zgodzić jest jeszcze wiele do zrobienia owszem to co piszesz jest prawdą ale po części. No to piszemy co jeszcze można zrobić i dlaczego pecety wciąż są i będą ulepszane a przynajmniej powinny.

klasyczne procesory owszem dochodzą do granic możliwości ale na krzemie się świat nie kończy można pójść w inna stronę i tworzyć procesory biologiczne (coś jak mózg). Jeszcze lepiej teraz tworzy się procesory kwantowe które na dzisiaj określa się kresem możliwości rozwoju technologicznego mówiąc iż ich moc obliczeniowa jest teoretycznie nieskończona.

Teraz grafika. Tu także się nie zgodzę owszem gracze to jedna strona ale są także graficy praca w programach do projektowania 3d potrzebuje potężnej mocy obliczeniowej. Nawet takie bajki disneya czy pixara są obrabiane na potężnych serwerach bo zwykły pecet nie wyrabia tak więc przed kartami graficznymi jeszcze długa droga. Nie wspominając o fotorealistycznej grafice do której ciut brakuje. Powiedzmy sobie szczerze nikt nie będzie robił filmu z efektami 3d na domowym piecu i czekał kilku tygodni czy miesięcy aż mu się skonwertuje (wyrenderuje czy jak to się tam jeszcze zwie). I tu dodam że grafika to też procesor więc do kart graficznych kwantowych jeszcze daleko i to chyba dopiero takie były by ostatkiem możliwości rozbudowy.

Dyski twarde no tak fakt sdd nie są jeszcze rewelacyjne ale kiedyś będą mieć tyle cyklów zapisu i odczytu że przeżyją zwykłego człowieka :). Ale można pójść jeszcze dalej. Już teraz mamy prototyp nowego biologicznego nośnika danych jakim jest bakteria :). Tak naukowcy są wstanie zapisywać dane w kodzie genetycznym bakterii. Narazie proces zapisu i odczytu jest ekstremalnie powolny ale nie od razu Rzym zbudowano. Czemu to takie dobre? bo bije na głowę żywotność wszystkich dotychczasowych nośników. Żywotność takiego biologicznego nośnika jest liczona w tysiącach lat, jeżeli o pojemność chodzi to nie wiem jaka jest ale podejrzewam, że kiedyś będzie astronomiczna jak na te czasy.

To że ludzie teraz używają komputerów do słuchania muzyki i przeglądania sieci nie znaczy, że tak będzie zawsze. Może kiedyś gdy będziemy kolonizować wszechświat i każdy będzie mógł mieć włąsny statek kosmiczny to takie pecety kwantowe będą wyznaczały trasy podrózy w bazach galaktych oraz obliczały pozycje skoków w nadprzestrzeń. Tak jestem fantasą i lubie sobie pomażyć. Ale spójżcie na Lema, był fantastą napisał książki ludzie się z niego śmiali, a wszystko z tego co wymyślił się sprawdza

GL1zdA   12 #16 18.02.2010 00:51

Na czym polega doskonałość Itanium? PC się trzyma ze względu na ilość oprogramowania, która jest na niego dostępna, zaś PowerPC i zSeries IBM trzyma się, ze względu na inwestycje firm w ich sprzęt. Reszta padła, bo mainstreamowy sprzęt był tańszy i potrafił zrobić to samo.

@1 Naukowcy pracują cały czas nad nowymi technologiami. Podnoszenie zegarów zwolniło, ale zegary to nie wszystko. Porównaj wydajność P4 i i7 z tym samym zegarem.

@2 Kilkadziesiąt tysięcy? 10% z 260 milionów tranzystorów Tegra'y nVidii stanowi Cortex implementujący architekturę ARM. Poza tym sprawdź co w procesorach pochłania najwięcej tranzystorów - bynajmniej nie jednostki wykonawcze. Układ x86 jest skomplikowany nie ze względu na dekodowanie instrukcji tylko potokowość, superskalarność, predykcję itd. Czyste układy RISC wcale nie mają mniej tranzystorów. Alpha z 96' ma więcej tranzystorów niż PIII z 99'. To, że w RISCach nie adresuje się bezpośrednio pamięci, nie znaczy, że w programach nie trzeba korzystać z danych w RAM...

@3 Linie produkcyjne się amortyzują. Przyrost wydajności na wielu rdzeniach jest zależny od piszących software. Parę lat temu mówiło się, że nie warto brać dwóch rdzeni, bo nie ma programów. Dziś tak jest z czterema rdzeniami. Poza tym nie wszystkie problemy da się zrównoleglić, ale mnóstwo zrównolegla się bardzo dobrze - sam pisałem program który do 16 rdzeni zrównoleglał się liniowo (później byłoby podobnie, tyle że brakowało sprzętu).

@4 Wykorzystuje się coś, co dotychczas było pomijane. Moim zdaniem lepiej jest, gdy karta graficzna służy do czegoś więcej niż gier.

@5 Nie bądźmy ekstremalni. Mocne konfiguracje są nie tylko do gier, ale przydają się do większości prac od grafiki, multimediów po programowanie. Ja przynajmniej czuje różnicę w szybkości kompilacji na A64 i Core i7.

@6 Procesory, karty grafiki, dyski twarde, monitory - wszystko ciągle ewoluuje. Cała reszta wymienionego sprzętu tak naprawdę nigdy nie ewoluowała.

Techniczny przełom, który wieścisz to powrót do lat 60-tych. Owszem, są osoby, którym wystarczy komputer do internetu i korzystanie z umieszczonych w nim aplikacji, jednak nadal mnóstwo działań będzie wymagało tradycyjnego peceta i będzie korzystać z jego mocy.

Extraordinarykid   6 #17 18.02.2010 03:46

GL1zdA
"Techniczny przełom, który wieścisz to powrót do lat 60-tych. Owszem, są osoby, którym wystarczy komputer do internetu i korzystanie z umieszczonych w nim aplikacji, jednak nadal mnóstwo działań będzie wymagało tradycyjnego peceta i będzie korzystać z jego mocy."

Zjawisko to zachowane pozostanie tylko i wyłącznie ze względu na ceny nowości technologicznych.
Dopóki nowinki nie będą dostępne dla wszystkich, zarówno korzystających ze starszych rozwiązań, jak i tych będących na bieżąco, będziemy czerpać z tego, co już każdy mieć może, a jest z czego wybierać.

  #18 28.02.2010 21:57

Jeśli chodzi o przełom w kwestii wydajności procesorów to trwają od pewnego czasu prace nad urządzeniami opartymi o grafen:

http://pl.wikipedia.org/wiki/Grafen

Pozwolą one na osiągnięcie częstotliwości rzędu tysięcy GHz...
Ciekawe co z tego wyjdzie.

  #19 28.02.2010 21:58

"Światowe zapotrzebowanie szacuję na około pięć komputerów."
Uwaga przypisywana Thomasowi Watsonowi, prezesowi IBM, 1943

"Przejechałem ten kraj wzdłuż i wszerz. Rozmawiałem z ludźmi, którzy świetnie zarządzają swoimi przedsiębiorstwami. Moje informacje pochodzą z najlepszego źródła i mogę Pana zapewnić, że przetwarzanie danych jest modą przejściową i nie przetrwa nawet roku."
Redaktor prowadzący działu książek o tematyce biznesowej w wydawnictwie Prentice-Hall w odpowiedzi na propozycję Karla V. Karstroma (młodszego redaktora, który polecił mu pewien maszynopis książki na temat przetwarzania danych), około 1957 roku

"Nie ma powodu, aby ktokolwiek miał komputer w domu."
Ken Olsen, prezes Digital Equipment Corporation na konwencji The World Future Society, 1977 r.

"640 kilobajtów powinno każdemu wystarczyć."
Bill Gates, 1981 r.

~Koldy   2 #20 01.03.2010 02:38

Bardzo ciekawy wpis, niestety nie wypowiem się dużo na ten temat, gdyż jestem troszeczkę zielony w tym temacie, a czytam to bardziej jako ciekawostkę, lecz szczerze mówiąc to wiele się dowiedziałem, z komentarzy, jak i z samego wpisu.

Wiele wypowiedzi wręcz zmusiła mnie do sprawdzenia tego w encyklopediach, forach i newsach o danych rzeczach, a o większości nawet nie miałem pojęcia, np. zapis/odczyt w bakterii.

Pozostaje mi tylko podziękować, oraz pozdrowić za wiedzę, która pewnie mi się przyda.

Dziękuje i pozdrawiam,
Koldy

_mat3usz_   3 #21 01.03.2010 03:45

Gdzieś czytałem [nie czepiać się za to "gdzieś" bo na serio nie pamiętam] o nowym materiale do produkcji procesorów. Szczegółów nie znam, ale zapowiadało się ciekawie ;-)
Co do zniknięcia grafik - być może już niedługo doczekamy się integracji procesora z grafiką [jak to już jest wprowadzone w i5, chodź wydajność jest co najmniej słaba]. PCty nigdy nie znikną <- ja swojego będę miał cały czas. :)

Janosik7   3 #22 03.03.2010 18:21

Może jednak PCty niekoniecznie są ślepą uliczką ewolucji a bardziej etapem przejściowym pomiędzy ogromnymi maszynami z lat 60 i 70-tych a zminiaturyzowanymi urządzeniam typu komputer osobisty /jednak PC/. Osobiście sądzę, że dzisiejsze komputery PC są jak najbardziej w nurcie tejże ewolucji przekształcając się w urządzenia coraz bardziej osobiste i podręczne jak właśnie laptopy, nettopy i jeszacze mniejsze urządzenia /palmtopy itp/, już z inną architekturą. A za kilka lat jak nowe technologie pozwolą dalej zminiaturyzować sprzęt to zapewne każdy będzie nosił przy sobie taki odpowiednik PC-ta łączącego telefon, kamerę, TV i odtwarzacz muzyczny. Ha, no i wyszło mi coś co już jest na rynku. No to dodam jeszcze, że ten sprzęt będzie się z nami bezpośrednio kontaktował /może na poziomie układu nerwowego czy neuronowego/ i wspomagał nasze działanie bezpośrednio w każdej chwili. Tak widzę przyszłość i ewolucję PC-tów.

  #23 09.03.2010 03:49

Prawda jest taka, że dzisiejszy pęd za coraz to szybszym pc jest dla mnie sztuczny. Ok ileż, to można ulepszać pc do gier?, robią to tylko ci co mają na to budżet i są wielkimi fanami grania. Jednak chcę zauważyć, że jakość gier spadła dzisiaj na masówkę i nie jest to dla mnie ten sam rynek co sprzed lat. Dlatego nie widzę, by celu by wiecznie kręcić pc. To co mam kupiłem w 2005 i do teraz mi w zupełności starcza. Mam windows tak ustawiony, że uruchamia się w 30 sekund a zamyka jeszcze szybciej. To wszystko kwestia dobrych ustawień. Kiedyś miałem rezerwę do systemów unixowych, ale np takie Ubuntu dla użytkownika co nie gra to czysta rewelacja, zaś windows też da się zrobić na dobrze działający ale kosztuje legalnie to sporo pieniędzy by użytkować z legalnych czyścicieli rejestrów zaś jak ktoś nie patrzy na to wiadomo naraża się ale ma lepiej działający system niż użytkownik legalnego minimum.

Dlatego jak ktoś jest miłośnikiem filmów, internetu czy multimediów to linux w dobrym wydaniu jak ubuntu w zupełności wystarcza (wszystko jest legalne), a jak mam pieniądze (sporo bowiem w windowsie za wszystko się płaci) no to możemy sie pobawić oczywiście w windowsie trzeba sporo wiedzy i doświadczenia by to dobrze działało.

Przyszłość to właśnie mniejsze komputerki. Następnym krokiem jaki zrobie to laptop z ubuntu (mam nadzieje, że nie wcisną mi visty bym musiał na starcie ją usówać).

Do grania dziś wystarcza PS3- ta konsola to architektóra na parę ładnych lat.

Na pc łatwo złamać każdy soft więc popularne zawsze będzie ten blaszak.

  #24 12.04.2010 14:47

Amiga pokonałaby PC gdyby nie słaby marketing Commodore'a. Poza tym, komputer, któremu zaledwie kilka megabajtów RAM-u wystarczało do uruchomienia praktycznie wszystkiego co oferował ówczesny Pecet przy większych wymaganiach, nie był wygodny dla producentów sprzętu, bo na tym po prostu NIE DAŁO SIĘ ZAROBIĆ. Lepiej przecież wyglądają tysiące MegaHertzów przy procesorze niż rzeczywista jego wydajność. Z resztą, ludzi zazwyczaj nie interesują parametry, tylko kolorowe opakowanie, z którego potem wyskakuje Windows. Tak więc artykuł można określić jako wyjątkowo powierzchownie traktujący temat. Pecet przetrwał, bo łatwo się go kopiuje i można na nim nieźle zarabiać, bo niczego nieświadomi ludzie kupią nowe dodatki, żeby podobno lepiej działało.

  #25 13.04.2010 23:35

W kwestii zwiększania, to już w tej chwili moja Nokia 3110c całkiem nieźle zastępuje mi PC-ta. Jest w niej jeden tylko mankament. Nie ma multitaskingu, dzięki któremu gg i przeglądarka mogły by działać bez wyłączania (ale MP3 można słuchać w trakcie korzystania z OperyMini), no i czasami brakuje jakiegoś sprytnego edytorka tekstu, który umożliwiałby zapis normalnych plików txt. Fajnym bajerem byłoby też podłączanie tego w domu pod pełnowymiarowy monitor, klawiaturę i mysz. Reszta bije peceta na łeb i gdyby nie wszechobecność PC, w ogóle bym go nie potrzebował :-)

alchenix   3 #26 04.09.2010 23:03

"1) Względy fizykalne. Nie można skonstruować krzemowego procesora pracującego z zegarem większym niż ok. 4GHz. Do wyższych częstotliwości trzeba stosować specjalne materiały, jak arsenek galu, co eliminuje je z produkcji skomplikowanych procesorów. Procesory Pentium4 osiągnęły zegar 3,6GHz już 5 lat temu, to oznaczało koniec ich ewolucji. Obecne Core2Duo/Quad/i5/i7/Phenom znowu się zbliżają do tej granicy."

"IBM na Hot Chips 2010 zaprezentował procesor z196 taktowany zegarem 5,2GHz składa się z 1,4 miliarda tranzystorów wyprodukowany w procesie technologicznym 45nm....."

  #27 24.10.2011 12:05

Uważam, że przełomem będą komputery biologiczne, np. te oparte o bakterię E.coli ( http://bit.ly/pbTI0Y ). W teorii "wyhodowane" podzespoły mogły by mieć dużo lepszą wydajność i pojemność. W tą stronę powinien iść dalszy rozwój IT

  #28 07.03.2012 13:08

zapomniałeś autorze o procesie technologicznym 25 nm "SOI" w 2013-2015