Kup panie Wieżę Eiffla... czyli naiwniaków nie sieją, tylko sami się rodzą...

Viktor Lustig to „człowiek, który sprzedał wieżę Eiffla dwa razy” (obrazek i cytat za Wikipedią).

Aż chciałoby się powiedzieć, że Jan Kowalski to człowiek, który kupił ją co najmniej kilkanaście razy...

Dzisiaj naszła mnie ochota, żeby zrobić subiektywny ranking największych przekrętów z IT z ostatnich lat. Myślę, że to będzie doskonałe podsumowanie kilku drobnych wpisów blogowych, które popełniłem.

1. Wincyj (wszystkiego)

Płyty

Pozwoliłem sobie umieścić powyżej zrzut ekranu z video https://www.youtube.com/watch?v=qn6sHMqvRMY (myślę, że jego autor może to spokojnie potraktować jako reklamę - na DP nie mogę wstawić przeglądarki z odpowiednim znacznikiem czasowym).

Oto przykładowy system komputerowy 5170, wprowadzony na rynek w 1984 (ten konkretny egzemplarz mógł być później uaktualniany). Widzimy tam pięć kart rozszerzeń (to te takie zielone, stojące pionowo prostokąty):

  • kontroler dysku MFM i stacji dyskietek
  • kontroler złącza równoległego/szeregowego
  • karta rozszerzająca pamięć operacyjną
  • karta graficzna
  • "external DIP drive"

Dyskietki odeszły i jest to bardzo dobra wiadomość, kontrolery dysków i złącza pamięci RAM przeszły na płyty główne, podobnie karty dźwiękowe (tutaj jej nie ma, ale przecież wielu z nas miewało Gravisa czy któregoś Sound Blastera)

Jak wyglądają nowe płyty główne w 2020?

W produkcji mamy wiele modeli o ogólnym zarysie wyglądających mniej więcej tak:

Ten standard ma już około 25 lat! Został stworzony, gdy na rynek wchodził Windows 95, a w Polsce dopiero uchwalono ustawę o prawach autorskich (zaczęła obowiązywać rok wcześniej w 1994).

Nie chodzi mi w tym momencie o nawiązywanie do konkretnej firmy czy modelu, bardziej chodzi o zadanie ogólnych pytań:

Ile ze slotów rozszerzeń będzie obsadzonych? Jeden? Dwa? Ile dysków zostanie podłączonych? Czy złącza HDMI będą kiedykolwiek użyte? Czy wszystkie sloty RAM będą działać? Czy będziemy mieć klawiaturę na USB czy użyjemy złącza PS/2? Czy użyjemy karty sieciowej? A wszystkich złącz USB?

Obstawiam, że w wielu domach pojawi się karta graficzna + jeden czy dwa dyski i może ze trzy, cztery urządzenia USB + ewentualnie jakiś kontroler NVME.

Nie zapominajmy również o możliwościach przetaktowywania (overclockingu) czy diodach LED, które są coraz częstsze, ale nie zawsze włączane.

Rozumiem, że oczywiście są standardy typu ITX, ale producenci obecnie za bardzo się rozdrabniają i produkują za dużo urządzeń we wszelkich rozmiarach i kombinacjach, równocześnie chcąc sprzedać dużo egzemplarzy każdego. To jest sprzeczność. Im więcej modeli, tym mniej egzemplarzy danego modelu znajdzie szczęśliwych nabywców (określony popyt dzieli się na więcej części). Im więcej modeli, tym mniej również czasu można poświęcić każdemu (stąd też tyle niedopracowanych wersji BIOS).

Kto na tym traci i jak to bywało kiedyś?

Jeżeli ktoś nie ma ochoty oglądać wideo - pan na filmiku miał problem z obsługą dużych dysków twardych w systemie klasy 80286 i rozwiązaniem okazało się wykorzystanie BIOS innego producenta, który to okazał się na tyle zgodny i działający, że rozwiązał wszystko.

Czy w dzisiejszych czasach ktoś pomyślałby, żeby do płyty Gigabyte flashować BIOS Asusa?

Jest to ciekawe zagadnienie:

  1. producenci kupują te same chipsety i złącza, łączą je w dosyć standardowy sposób z układami WiFI, kontrolerami dźwięku i układami do monitorowania temperatur (które w większości mają swój własny, nigdy nie zmieniany, firmware)
  2. w wielu wypadkach jedyną zmianą w dodatkach i własnych rozszerzeniach jest np. zamiana identyfikatorów urządzeń PCI na niestandardowe

Zaryzykuję twierdzenie, że o ile kiedyś standard PC był naprawdę otwarty, to teraz... no jest, ale zupełnie inaczej (i sztukę działania zgodnie z tym modelem do perfekcji opanował oczywiście Intel).

Zaintegrowanie różnych urządzeń na płytach to oczywiście wspaniała sprawa... ale powoduje ona, że najczęściej mamy masę niepotrzebnych śmieci (które cały czas pobierają prąd).

Monitory

Kolejnym problemem jest obecność minimum dwóch monitorów na wielu biurkach (widać to szczególnie w firmach, gdzie na open-space stoi dosłownie ich las, a większość z nich wyświetla głównie nieistotne rzeczy) czy ogromny rozmiar monitorów połączony z niską rozdzielczością (w praktyce pracujemy z laptopem, który daje full HD na 15,6" i monitorem, który daje full HD na 24" czy 27").

Ja rozumiem, że część ludzi lubi kupować wielkie fury ze względu na swoje hmmm kompleksy wielkości, ale...

Procesory

Tu też wielokrotnie dochodziliśmy do muru - wspomijmy chociażby uparte promowanie Pentium IV (chociaż od początku osiągało ono gorsze rezultaty niż Pentium III) czy nieustającą zabawe na zegary (która doprowadza do używania chłodziarek przemysłowych w trakcie oficjalnych prezentacji)

Wielkim problemem obecnego x86 jest skomplikowanie - mamy instrukcje 16-bitowe, są też 32 i 64-bitowe.

Sami inżynierowie się w tym gubią, co widać u Intela. Bardzo brakuje odważnego ruchu, takiego jak zaimplementowanie w krzemie najprostszej obsługi np. instrukcji 64-bitowych i obsługa reszty w sposób programowy.

Bloatware

Tak kiedyś nazywano programy, które dodawano do komputerów. Czasem było ich tak dużo, że wręcz zajmowały cały czas procesora i powodowały, że jakakolwiek praca była niemożliwa.

Czasy się trochę zmieniły i te praktyki również... ale czy naprawdę?

Podstawową funkcją systemu operacyjnego powinno być wyłącznie uruchamianie programów. Kiedyś za czasów wcześniejszych wersji Windows NT mniej więcej tak długa była lista procesów:

Obecnie wygląda to "trochę" inaczej, a nie od dzisiaj wiadomo, że im więcej skomplikowania i zależności, tym więcej miejsc, w których mogą wystąpić potencjalne problemy (m.in. to trapi najnowsze dziecko Microsoft).

Żeby nie było wątpliwości: z lenistwa często i gęsto instaluję najbardziej podstawowe Ubuntu z GNOME i tam widać niestety podobną tendencję.

Jeżeli mówimy o programach, to wiele z nich przechodzi podobną drogę - z prostych, małych i lekkich narzędzi stają się tak rozbudowanymi kombajnami, że przestają spełniać dobrze podstawowe funkcje (tak było z Nero Burning ROM, tak było z Netscape Navigator, tak jest teraz chociażby z Chrome).

A sterowniki? 300 MB? 500 MB? Nikt przy tym nie protestuje.

Moim zdaniem, to naprawdę majstersztyk, że ludzie nie chcą tego zauważyć... i często i gęsto wybierają to, co akurat jest modne.

2. Mobilne i stacjonarne to coś innego

Wielkość komponentów do maszyn stacjonarnych (zasilaczy, płyt głównych, itd.) prowokuje do zadania pytania - czy nie możnaby budować mniejszych elementów ?

Powstały oczywiście pewne standardy, ale... każdy z nich ma pewne mankamenty - w przypadku Mini-ITX problemem jest chociażby relatywnie duże złącze zasilania, obecność tylko jednego slotu na karty rozszerzeń, często mała ilość nowoczesnych złącz do włożenia dysków.

Zastanawia mnie, że nikt nie ma interesu w sprzedaży hybrydy płyty głównej laptopa i urządzenia stacjonarnego (ze złączem do zasilania podobnym jak w komputerach przenośnych, "stacjonarną" podstawką na procesor, złączem MXM na kartę graficzną i złączami na "przenośne" karty rozszerzeń, ewentualnie jednym slotem na "normalne" PCI).

Ciekawie byłoby zobaczyć płytę "stacjonarną", w której WIFI jest obsługiwane przez kartę znaną z komputerów przenośnych.

Myślę, że wiele osób z chęcią zbudowałoby maszynę klasy Ryzen 9 o wielkości trochę wyższego Mac Mini.

Producenci rozdrabniają się, produkując wersje "mobilne" i "stacjonarne" swoich produktów, które różnią się wyłącznie formą i ustawieniami limitów energetycznych.

To naprawdę nikomu nie pomaga.

3. Wszystko ma być bezprzewodowe

Dla mnie totalnym idiotyzmem jest wciskanie wszędzie urządzeń bezprzewodowych, takich jak myszki i klawiatury na Bluetooth.

Innym przykładem mogą być routery do ADSL łączone z komputerem przez WIFI, chociaż stoją od niego dosłownie kilkanaście centymetrów.

Nie zapominajmy, że nie wszystkich płytach głównych można równocześnie wyłączyć "kablową" kartę sieciową...

Myślę, że to nie ma nic wspólnego z rozwojem - w wersji bezprzewodowej sprzedawane są nawet liczniki do wody (kiedyś raz w roku w blokach były one odczytywane przez człowieka poprzez wejście do mieszkania albo złożenie oświadczenia i nikomu to nie przeszkadzało, obecnie promieniują cały rok).

Podobnym przekrętem jest niestety 5G - do naprawdę dużych prędkości wymaga odpowiednich częstotliwości (które obecnie nie są jeszcze wprowadzane w wielu miejscach).

Jak to będzie wyglądać, gdy zaczną korzystać z niego miliony? Czy operatorzy będą przy tym "optymalizować" sieci 4G, żeby zachęcić do migracji? Czy wytrzyma infrastruktura kablowa? Czy będziemy musieli mieć pakiety typu "1 GB z pełną prędkością, a potem obniżenie prędkości do 32 kBit/s"?

4. Nie da się

Tak wygląda gniazdo Intel Socket 2 ZIF procesora 486.

Od tamtego czasu dużo się zmieniło i przybyło pinów. Czy jednak nie da się zbudować złącza, które będzie służyć przez co najmniej kilka lat?

Kiedyś firma Intel wypuściła na rynek chipset Intel 440BX, który wpierw obsługiwał Pentium II, a potem doskonale radził sobie z Pentium III i różnej maści Celeronami (sam miałem płytę główną na Slot I, która działała z procesorem 800 Mhz). Obecny przykład AMD pokazuje, że pomimo skomplikowania x86 wciąż jest możliwe coś podobnego.

Pamiętam, jak swego czasu mówiono o Intelu, że powinien wspierać CPU 8-generacji (Coffe-Lake) w płytach z chipsetami serii 200. Z jednej strony wchodzimy tutaj w kwestie stabilności (układy np. pracują źle w 1% przypadków), z drugiej możliwe jest, że tego typu blokady są wprowadzone sztucznie (i Chińczycy już kilka razy pokazywali, że to co się nie da, jednak się da).

Temat podstawek to w ogóle temat rzeka - kiedyś były, teraz ich nie ma (i wielu użytkowników nawet nie wie, że w pewnym zakresie można wymieniać również układy wlutowane na stałe) albo są jednorazowe (należy tutaj wymienić niesławne złącze DGFF Della).

Innym przykładem wmówienia użytkownikom, że się nie da, jest tzw. "podatek od Windows" - większość systemów jest sprzedawana z tym systemem i ludzie nie mają już możliwości jego zwrotu (kiedyś takie procedury istniały i choć były trudne, to czasami udawało się je przejść).

To samo mamy w temacie długiego czasu pracy na baterii (maleje zużycie energii procesorów, ale równocześnie maleje przeciętna pojemność ogniw) czy budowania urządzeń odpornych na czynniki środowiska (w przypadku tabletów to niestety plaga, że nie nawet podstawowej odporności IP)

Słowa "nie da się" powtarzają się w obecnym IT zbyt często - chociaż mamy coraz szybsze maszyny i (podobno) coraz lepsze języki programowania i fachowców, to wielu z nich nie potrafi zrobić tego, co starsza generacja miała w małym palcu. Słychać to zwłaszcza w wielu dużych firmach, gdzie "specjaliści" stwierdzają, że rzeczy proste są skomplikowane albo nie mogą być zrobione bez rozbuchania budżetu.

5. Baterie są nieszkodliwe

Tak wygląda starszy sprzęt, w którym wylała bateryjka podtrzymująca pamięć CMOS:

(ostatnie zrzuty ekranu pochodzą z wideo https://www.youtube.com/watch?v=kNhVQWH318M)

Przejdźmy do czasów nowszych - producenci przez lata umieszczali w różnego rodzaju urządzeniach (np. laptopach) baterie z grubymi obudowami, które obecnie zostały zastąpione czymś, co zdecydowanie zbyt łatwo puchnie (proszę sobie poszukać informacji o "swollen battery").

Swoją drogą - swego czasu (za Wikipedią między 1999 i 2007) mieliśmy również plagę cieknących kondensatorów.

W obu wypadkach po prostu zbyt mocno oszczędzono albo tak zaprojektowano urządzenia, żeby elementy miały narobić jak największych szkód.

6. Jak jest komputer, to musi być gorąco. Takie jest odwieczne prawo natury

Powyżej zdjęcie poglądowe płyty głównej jednego z laptopów (kanał Louisa Rossmanna). W takich konstrukcjach mamy przynajmniej jeden wiatrak i ciepłowód odprowadzający gorąco z procesora.

Zdarza się, że producenci nawet na tym mocno oszczędzają (MacBook Air, w którym nie ma połączenia między tymi dwoma elementami i który przez to nie może być wykorzystywany do bardziej obciążających zadań) albo "zapominają", że istnieją również inne elementy generujące ciepło. Należy tutaj wspomnieć chociaż problemy serii Dell XPS/Precision z układami VRM (firma zdecydowała się na zmiany dopiero w tym roku) - o ile zakładano paski termiczne na dyski NVME, to brakowało tychże na kilku kluczowych elementach.

Myślę, że to jest przykład przekrętu - możnaby zaprojektować dobre układy w wielu modelach, ale nie robi się tego z premedytacją. Inną możliwością byłoby umieszczenie płyt głównych z tyłu ekranu i stosowanie chłodzenia grawitacyjnego (oczywiście taka maszyna musiałaby mieć zupełnie inną budową i to mogłoby być może działać wyłącznie z systemami ARM, które mają znacznie mniejsze płyty)

Dosyć podobna sytuacja jest przy maszynach stacjonarnych i widać to przy płytach głównych z układami X570. Zakłada się tam malutkie hałaśliwe wentylatorki na chipsecie, które zasysają ciepłe powietrze ze środka obudowy i wdmuchują go na układ.

Czy nie możnaby zaprojektować tutaj sposobu chłodzenia podobnie jak przy laptopach? (ciepłowód doprowadzony do tylnej płyty z małym wentylatorem działającym jak przy urządzeniach przenośnych)

Układ budowy płyt głównych stacjonarnych od dawna wymaga zmian! Dlaczego tak się nie dzieje? Myślę, że doskonale wyjaśni to następujące wideo:

W wielu wypadkach ludzie ratują się AOC, a jak wiadomo woda niezbyt dobrze współgra z elektrycznością...

7. Kup pan Pentium 8Ghz

W 2006 jedna z sieci handlowych sprzedawała w Polsce Pentium D, które miało działać z widoczną prędkością:

Podobnym przekrętem jest obecnie sprzedawanie cienkich komputerów, które nie są w stanie pracować przez dłuższy czas z deklarowanymi prędkościami zegara. Użytkownicy kupują wersję z procesorami i7, ale te w praktyce radzą są dokładnie tak jak znacznie słabsze konfiguracje.

Tak działa wiele producentów i jedyną obroną przed tym jest oglądanie testów laptopów na różnych stronach (chociażby mój ulubiony https://www.notebookcheck.net/)

Do tego dochodzi RAM, który bywa sprzedawany w konfiguracji jednokanałowej (praktyka częsta) albo bywa wolniejszy niż w systemach sprzedawanych wcześniej (tak się dzieje praktycznie przy każdej generacji RAM i stąd np. moduły DDR4 długo były wolniejsze niż DDR3, DDR3 długo przegrywały z DDR2, itd.)

Istnieje też inny podobny proceder (chyba najbardziej w wykonaniu Azjatów) polegający tym razem na bardziej ordynarnym przerabianiu kart pamięci czy pendrive na większe i sprzedawaniu ich w okazyjnych cenach. Takie oferty pojawiały się na Allegro, Ali i wielu innych miejscach, a skoro są, to... znaczy, że są i klienci.

8. Moja jedynka jest lepsza niż twoja jedynka

Złote kable HDMI według ich producentów pozwalają na uzyskanie lepszego obrazu niż tanie odpowiedniki. Jedynym zyskiem mógłby być lepszy transfer, ale czy naprawdę sposób reklamowania takich wynalazków nie jest karygodny i nie pachnie przekrętem na kilometr?

9. Nie ma gwarancji, nie ma wsparcia, nie ma danych, nie ma nic, i co mi zrobisz?

Dane powinny być najważniejsze, jednakże dyski SSD w laptopach nie mają nawet określonej minimalnej trwałości. Te kupione normalnie mają przynajmniej jakąś wartość parametru "TBW", co pozwala szacować, ile mogą wytrzymać, te z laptopów zazwyczaj nie mają nic i do tego nie mają żadnych upgrade firmware.

Innym tematem jest możliwość odzyskania danych z komputerów z układem T2 (podobno teraz jest to możliwe z użyciem narzędzi Apple) czy trwałość albo prędkość kolejnych modeli dysków, która bywa gorsza niż przy poprzednikach (widać to zwłaszcza, gdy kopiujemy dużo danych i dojdzie do przepełnienia bufora pamięci cache)

A NVidia i karty graficzne bez gwarancji przy używaniu 24h na dobę? A kropki oznaczające, że urządzenie uległo zalaniu? (czasem zabarwiają się, gdy przyszliśmy z dworu do domu i wilgoć uległa kondensacji) A odrzucane reklamacje różnych produktów, gdzie ewidentnie widać wadę fabryczną? Albo dalsze sprzedawanie takich urządzeń bez poprawki?

Proszę mi pokazać inną gałąź przemysłu, gdzie można przeczytać "producent nie ponosi żadnej odpowiedzialności za produkt" (co możemy przeczytać w licencjach oprogramowania)

Inną sprawą są oczywiście aktualizacje Androida - taki Samsung Galaxy pojawia się w sklepach około marca, użytkownicy kupują go po kilku miesiącach ze względu na spadek ceny. Wtedy na rynku jest kolejny Android, co oznacza, że słuchawka zaraz po zakupie dostanie upgrade systemu, potem jeszcze jeden... i to już koniec.

Piękna sprawa, że użytkownikom udało się wmówić, że telefony kosztujące więcej niż niejeden komputer mają praktycznie jednorazowe oprogramowanie (albo patrząc inaczej - że hardware ogólnego zastosowania będzie działał tylko i wyłącznie ze specjalnym firmware, gdyż nie można przygotować wersji instalacyjnej Androida jak Windows czy Linuxa).

10. Do wszystkiego potrzebne są chmury i konta online

Fachowcy IT zachłysnęli się możliwościami przechowywania danych w serwerowniach, a wielu z nich lansuje tezę o pełni ich bezpieczeństwa. Znam firmy, które całkowicie opierają swój biznes na chmurze (tzn. nie ma tam absolutnie żadnego dokumentu, który nie byłby umieszczony na serwerze jednej z firm).

Ma to oczywiście swoje implikacje - zgadzamy się, żeby firmy zewnętrzne czytały nasze pliki i decydowały, czy powinniśmy z nich korzystać z czy nie.

Ile już było wycieków? Ile było przypadków kasowania plików? Ile płaczu, gdy przestawał działać Internet?

Zaczęliśmy od chromebooków, daliśmy sobie wcisnąć w telefonach i produktach Apple, a firmy proponują idą coraz dalej i proponują nawet przechowywanie haseł w chmurze ( https://www.spidersweb.pl/2020/06/dropbox-password-aplikacja.html). Aż strach się bać i myśleć, w ilu kopiach te dane są zapisywane (co budzi obawy o wpływ na środowisko).

Do tego dochodzi cena (ktoś za to płaci i nie oszukujmy się, że cała ta infrustruktura nie wymaga prądu, sprzętu ani ludzi) - proszę sobie porównać cenę MS Office w pudełku i porównać z cenę MS Office w abonamencie.

11. Płatne jest lepsze i równocześnie gorsze

Wielu z uporem maniaka nadal lansuje tezę, że płatne oprogramowanie jest lepsze niż darmowe. Jeżeli mówimy o najbardziej popularnym systemie operacyjnym na świecie, ostatnio oglądałem takie to podsumowanie w serwisie Phoronix: https://www.phoronix.com/scan.php?page=article&item=windows-may202... Wynika z niego jasno, że niektóre aplikacje działają szybciej "tu", niektóre "tam". Istotne przy tym jest również fakt konieczności doinstalowywania antywirusów i innych dodatków, które to w Windows jednak wciąż zabierają swoje.

Tymczasem, o ile kiedyś było ciężko dobrać programy darmowe, w 2020 od początku do końca można za popularne oprogramowanie płacić zero PLN zero groszy (nie mówię o grach czy aplikacjach bardzo specjalistycznych, bo z tymi bywa różnie). Jedynym haczykiem tej zabawy jest to, iż w cenie wielu komputerów ukryto tzn. "Microsoft tax" i teoretycznie urząd skarbowy mógłby nam naliczyć podatek, bo teoretycznie nabyliśmy korzyści uzyskując oprogramowanie o jakości tego, za które płaci się gruby szmal (bez żartów - kiedyś się zdarzało, że LibreOffice wyceniano jak MS Office i bodajże nakazywano coś od tego płacić).

Inną kwestią jest wmówienie, że coś się daje za darmo (podczas gdy pobiera się ciężki haracz w postaci danych telemetrycznych) i promuje się to zgodnie z punktem 10.

12. Safe computing

Słowo "safe" kojarzymy podświadomie z czymś dobrym, tymczasem w świecie IT tzw. "safe computing" niekoniecznie musi oznaczać taką budowę systemu, w którym to użytkownik ma nad nim kontrolę.

Przyjrzyjmy się kilku skrótom: "Trusted Platform Module", "AMD Platform Security Processor (PSP)" czy "AMD Secure Technology".

Obecnie w naszym sprzęcie obecne są różne elementy, o których nie do końca wiadomo, co robią. Bardzo dużo pisze się o Intel ME, zapominając, że AMD poniekąd idzie w tą samą stronę.

Sama idea, żeby sprawdzać każdy fragment kodu (czy jest "zaufany") jest oczywiście bardzo dobra, ale z drugiej strony widać do czego to prowadzi - blokowanie bootloaderów w telefonach czy problemy ze startem Linuxa w starych systemach X86 (proszę nie pisać, że to wina niskiej jakości tego kodu - myślę tu bardziej o różnych przepychankach dotyczących certyfikatów).

Obecny kod jest skomplikowany i potrafi mieć błędy - co, jeżeli te "bezpieczne" komponenty będą je miały i nie będzie można z nich zrezygnować?

To już się dzieje, od Intel ME poczynając, a na UEFI kończąc.

I słowo zakończenia

Są "rewolucje" i rewolucje.

Jak czytam "mój wysłużony laptop sprzed roku potrzebuje wymiany", to mi się nóż w kieszeni otwiera - jeśli nim nie rzucałeś albo nie zalałeś czy nie spaliłeś, to i tak ma moc obliczeniową kilkunastu starych PC.

Przez ostatnie kilka lat wydajność obliczeniowa w świecie x86 generalnie nie wzrastała w sposób spektakularny - dla wielu zastosowań wystarczy nawet CPU z 2012 sparowane z odpowiednią kartą graficzną (pomijam w tym momencie sytuacje, gdy nawet Threadripper 3990x będzie zbyt wolny).

Różne starsze systemy można w idiotycznie prosty sposób przyspieszyć - przy laptopach bardzo pomocna będzie wymiana dysku na SSD albo zwykłe przeczyszczenie układu chłodzenia, w systemach stacjonarnych wystarczyć może np. karta rozszerzeń z dyskiem NVME.

Nie chciałbym dzisiaj wracać do 80386, modemów ani monitorów CRT. Tak samo cieszy mnie rezygnacja ze zworek, (w końcu) symetryczne wtyczki USB czy możliwości hot-plug.

Postęp jest dobry, ale z drugiej strony martwi mnie, ile mocy obliczeniowej, surowców i zwyczajnie pieniędzy jest każdego dnia marnotrawione na śmiecenie. Walczymy (podobno) o każdy wat energii, a stawiamy serwerownie z tysiącami kopii tych samych danych albo wtłaczamy obsługę Intel ME do maszyn domowych, gdzie pasuje jak pięść do nosa (że o diodach RGB nie wspomnę). Zachowujemy się trochę jak dzieci, które nie dbają zupełnie o nic i produkują, żeby tylko produkować.

Czy to się kiedykolwiek skończy?

Nie, dopóki naiwniacy będą łykać wszystko jak pelikany i dopóki standardy będą zamknięte.

Kup pane, kup, kup, kup... 

PS. Ostatnio przeczytałem ciekawy artykuł na bezprawniku o tym, że rękojmia wykracza ponad 2 lata od zakupu: https://bezprawnik.pl/rekojmia-po-uplywie-2-lat/