"All of this has happened before and will happen again" - zakup monitora + (szerzej) o wizji, fonii i gorącym dotyku

Pomyślałem sobie, że najlepszym wstępem byłoby video

albo

...skoro jednak jest to strona o IT, to zacznijmy od

Niektóre z przedstawionych tu rzeczy pamiętam ze swoich doświadczeń. Z pewnej perspektywy bardzo dobrze się o nich pisze albo wspomina (bądź co bądź to jednak wspaniały przykład ludzkiego geniuszu), ja jednak chciałbym o nich serdecznie zapomnieć - co się z nimi nacierpiałem, tego nikt mi nie odbierze.

Dzisiaj "blue screen" czy "kernel panic" to święto, nie ma już często i gęsto potrzeby dźwigania kilogramów ani wystawiania się na promienie X, ale... czy naprawdę cokolwiek się zmieniło, jeśli spojrzymy na to, jak ludzie (od producenta) traktują innych ludzi (swoich drogich i najcenniejszych klientów)? Czy naprawdę, pomimo całego tego postępu technologicznego, staliśmy się lepsi jako gatunek? Wyciągnęliśmy wnioski?

Zapraszam na krótkie spojrzenie na kilka sprzętowych drobiazgów z trochę innej perspektywy, gdzie podam kilka historyjek z życia wziętych, jak również spróbuję podać kilka rozwiązań (kilka, kilka, kilka - wiem).

To jest wpis bardziej amatorski niż pro... Trochę luźnych wspomnień, uwag, przemyśleń... Będzie głównie o monitorach.

Wzrok

Fajnie było, jak łzawiły oczy, gdy siedzieliście wiele godzin kilkanaście centymentów od ekranu?

Przy dawnych monitorach CRT (tych z bańką) sprawa była prosta - w najstarszych zakładało się szklany filtr (redukowały promieniowanie), we wszystkich wchodziło się do odpowiedniego panelu sterowania i wybierało najwyższą możliwą częstotliwość odświeżania.

Inną kwestią był fakt wykorzystania złącza analogowego:

  • dodatkowe, często niskiej jakości, konwertery tylko pogarszały ostrość
  • trzeba było się bawić chociażby z ustawieniami fazy (że o wpisywaniu wszystkich tych niskopoziomowych ustawień trybów w plikach konfiguracyjnych XWindows nie wspomnę)

Obecnie duża część z tych problemów odeszła, ale... pozostał temat PWM, FRC, DPI, częstotliwości odświeżania, czasu reakcji i niebieskiego światła.

Dzisiaj dużo z nas pracuje z laptopami - juz kilka lat temu przy 15,6" była w nich rozdzielczość Full HD (co daje PPI ok. 140), powłoka na ekranie skutecznie odbijała światło, a 8-bitowa matryca IPS miała czasy reakcji ok. 5 ms.

Przyglądałem się ostatnio w killu miejscach monitorom firmy Dell - miałem możliwość obserwacji jednego z modeli serii E(konomicznej) z 2020, i jednego z serii P(rofesjonalnej) z 2018.

Oba z nich miały 24 cali.

Doznałem pewnego szoku, gdy zobaczyłem, że monitor E:

  • nie ma jacka (głośniki są)
  • posiada w dalszym ciągu złącze VGA (jego fizyczną postać zdefiniowo ok. 1987, gdy na rynek wchodził 80386, OS/2 1.0 i zawrotna rozdzielczość 640x480) i PPI ledwo 96 (full HD)
  • urzeka ładnym dopracowaniem pewnych szczegółów (np. sposobem wkręcania śrubek, który nie wymaga używania śrubokrętów)
  • bije użytkownika po twarzy, jeśli chodzi o podstawowych funkcje - uchwyt jest niestabilny (monitor lekko drży) i pozwala obniżyć całość na ok. 10 cm nad powierzchnią, a ziarnista powłoka antyodlaskowa dosyć mocno pokazuje wszelkie niedoskonałości obrazu.

Wskazówka: ostatni punkt ma się nijak do zasady, że góra obrazu powinna być nie wyżej niż wzrok użytkownika (obrazek za Wikipedią).

Teraz monitor z serii P:

  • przy 24 calach oferuje on rozdzielczość 2560x1440
  • uchwyt działa w nim o niebo lepiej (jest stabilny, ma też funkcję pivot i przekręcania w bok i obniża urządzenie o 6 cm niżej niż w przypadku ekonomicznego odpowiednika)
  • nie posiada głośników (przy tej cenie to skandal!)

Żeby nie mieć wątpliwości co do uchwytów - Dell sprzedaje nawet monitory, które nie mają ŻADNEJ regulacji wysokości (mogę jedynie zrozumieć, że użytkownicy posiadają już własne stopki albo uchwyty VESA)

Granda! (zamiast dużej ilości modeli powinno być kilka z opcjonalnym wyborem stopki)

PPI i rozdzielczość

Popatrzmy, co daje Full HD, a co 1440p:

Przyznam się, że byłem w szoku, widząc taką dużą przepaść w stosunku do laptopów - obecne monitory stacjonarne ogólnie mają o wiele mniejszą gęstość pikseli i w ogóle nie mają porównania do przenośnych modeli.

Moja rada w tym wypadku - im większe PPI, tym lepiej. Rozumiem, że karta graficzna może się bardziej męczyć, ale z drugiej strony... ostry przyjemny dla oka obraz jest nieporównywalny z niczym innym. Kropka.

Ale więcej pikseli to większe zużycie energii.

Właściciel modelu z serii P pozwolił mi się pobawić, i wyszło na to, że urządzenie zużywa od 11-13 do 24 W (pierwsze wartości w zależności od koloru przy komfortowej jasności 40%, ostatnia przy zbyt jasnych 100% i starcie komputera, gdy urządzenie nie respektuje ustawień użytkownika).

Dawniej widywałem małe monitory LCD ze zużyciem 5 - 15W, z kolei CRT mogły pobierać znacznie więcej.

Bardzo mi dzisiaj brakuje jasnej informacji, ile dany monitor zużywa prądu w różnych sytuacjach - oznaczenia A, A+ albo A++ są dosyć ogólnie, a przy wspomnianym modelu z serii P widziałem jednak bardzo rozbieżne liczby (manual podaje 20 albo 62W).

Myślę, że dobrze byłoby widzieć liczby przy jasności podświetlenia 25%, 50%, 75% i 100% (i to, ile prądu zużywają dodatki typu porty USB).

O co chodzi z tym PWM?

Ekrany LCD mogą zawierać w sobie dwa rodzaje podświetlenia - diodami (niektórzy marketingowo nazywają je wtedy ekranami LED) albo świetlówkami (tak było kiedyś), które potrafią być umieszczane w różnych konfiguracjach (na krawędziach, pod całym ekranem, etc.) i mogą dotyczyć całego ekranu lub jego stref.

Sposoby sterowania jasnością samych diód są wyłącznie dwa: analogowe/DC (Direct Current – regulujemy natężenie prądu płynącego do diód) albo PWM (Pulse-Width Modulation – stosujemy modulację szerokością impulsu, czyli włączamy i wyłączamy diody na określony czas).

Niektórzy mówią jeszcze o podświetlaniu matrycowym, ale ono dotyczy wyłącznie konstrukcji, w której pojedyńczy układ steruje podświetlaniem PWM wszystkich składowych na raz (w przeciwieństwie do układów, gdzie poszczególne składowe są obsługiwane przez oddzielne elementy).

DC wymaga bardziej skomplikowanych układów, przy PWM chyba jest coś mowa o oszczędnościach prądu (mogę się mylić)... dziwnym trafem wielu producentów "zapomina" wspomnieć, że to najbardziej oczywista droga do uzyskania efektu mrugania - jeżeli włączanie/wyłączanie dokonywane jest z niską częstotliwością, to oczy wielu z nas będą łzawić jak przy starych CRT.

Przerywnik: przypomina mi się tu przypadek z zamierzchłej przeszłości - HP ProBook 6450b wykazywał właśnie objawy stosowania PWM (widać to było nawet na podglądzie kamery telefonu komórkowego). Była tam karta Intela i był to czas stosowania Windows 7. Pamiętam, jak się długo naszukałem, ale w końcu znalazłem małą aplikację (bodajże https://github.com/dmytrov/IntelPWMControl albo https://github.com/Kappa71/PWM), po użyciu której częstotliwość była zwiększana i możliwe było wysiedzenie i używanie tego urządzenia.

Producenci obecnych monitorów reklamują wiele z nich, pisząc o stosowaniu technologii typu "flicker-free" (w praktyce oznacza to używanie DC albo PWM z bardzo wysoką częstotliwością)

Przykład z instrukcji Della: "Analog backlight dimming control for flicker free display. Optimize eye comfort with a flicker-free screen."

Przerywnik: na pytanie o stosowanie PWM jedna z firm odpowiedziała mi ostatnio, że rating konkretnego ekranu to 10.0 (mogę tylko przypuszczać, że chodziło o skalę ocen ze strony https://laptopmedia.com/top-laptop-pwm-ranking-rated-by-negative-impac..., który jakby ma się nijak do podania "jest/nie ma" albo "PWM jest z częstotliwością 20000 Hz"). Szkoda, że w AD 2020 dalej stosowane są takie tricki.

Bardzo cieszą testy niektórych portali (np. https://www.notebookcheck.net/), gdzie podobne rzeczy mierzone są dokładnie w całym zakresie jasności np. dla testowanych laptopów.

Moja rada przy wyborze podświetlenia - PWM ma nie być. Kropka.

Więcej: https://www.eizo.pl/zmeczenie-oczu/zmeczenie-oczu-podswietlenie-led/ albo https://training.ti.com/dimming-methods-analog-dimming (o podświetlaniu analogowym) albo https://laptopmedia.com/highlights/what-is-pwm-why-is-it-important-and... (bardzo ładne wykresy porównawcze różnych podświetleń PWM i DC, które pokazują, dlaczego nasze oczy bywają zmęczone)

Czy FRC jest szkodliwe?

I jest, i nie jest.

Karty graficzne wyświetlają określoną ilość kolorów, a panele mają swoje fizyczne (mniejsze) możliwości. Wtedy do głosu dochodzi FRC, czyli naprzemienne wyświetlanie w miejscu pixela dwóch różnych kolorów. Jest to oczywiście najkrótszy sposób na mruganie, ale... o ile w przypadku PWM mruga cały panel, to tu zjawisko może dotyczyć tylko niektórych elementów.

Tak było np. w przypadku "starych" paneli TFT (miały możliwość reprezentacji 6-bitowej pojedyńczej barwy RGB, co ogólnie dawało możliwość reprezentacji 18-bitowej palety kolorów i było niewystarczające w przypadku 16.7 milionów kolorów, czyli palety 24-bitowa).

Żyliśmy z tym latami i jakoś problemu nie było.

Takie 6-bitowe panele IPS proponował Dell w serii P(rofesjonalnej) nawet w 2018 roku. Są w dalszej sprzedaży, obecnie jednak różnica w cenie jest minimalna i sugeruję się rozglądać za czymś, co nie używa tej techniki. Nie warto.

Monitor powinien mieć jak najszersze pokrycie palet kolorów i pokazywać jak najwięcej barw. Kropka.

Przy "gorszach" panelach można ewentualnie wymuszać na karcie graficznej obniżanie ilości kolorów z jej strony (zdaje się, że jest to opcja "Depth" z panelu NVidii, jak poniżej):

Przykład mrugania, który uzmysłowi całą sprawę: https://en.wikipedia.org/wiki/Frame_rate_control

Częstotliwość odświeżania i czasy reakcji

Pamiętam, jak przy ostatnich generacjach monitorów CRT wskazywano 85 albo 100 Hz jako ergonomiczne minimum, potem w panelach LCD przyszło 59 - 60 Hz, żeby teraz w konstrukcjach dla graczy osiągać 144 Hz czy więcej.

Pamiętam też ekrany LCD z czasem reakcji 50 ms, na których widać mocne było smużenie.

Obecnie zeszliśmy do 5 - 8 ms, a w monitorach dla graczy nawet do 1 ms.

Zasada jest tu prosta - 60 Hz i 5-8 ms w wielu wypadkach nie powinno być żadnym ograniczeniem... ale jeśli te parametry będą lepsze, to dla nas tylko lepiej.

Osoby dużo pracujące zawodowo nad statyczną grafiką, przeglądające internet lub grające od czasu do czasu mogą chcieć kupić monitor z większym DPI czy szerszą barwą kolorów (gorąco polecam), z kolei osoby dużo grające (gdzie obraz zmienia się dynamicznie) mogą i będą potrzebować lepszych wartości tych parameterów.

W przypadku monitorów Dell mamy jeszcze w menu opcję "Response time" - warto sprawdzić obie wartości (Normal/Fast).

Jak wyglądają ekrany zmiany częstotliwości, przypominam poniżej (w pingwinie z Gnome "Refresh Rate" nie jest w ogóle pokazywane, jeśli wartość jest tylko jedna - z punktu ergonomii jest karygodne, bo sugeruje brak obsługi w ogóle):

Windows-Pingwin 1:0.5

Przerywnik: A jak będzie przy matrycach o niskim zużyciu energii? Zobaczymy (jedyne, jak dotąd widziałem, to takie z możliwością włączenia własnego odświeżania zamiast ustawienia wartości z komputera)

A jasność ekranu?

Przy urządzeniach przenośnych jak najwyższa (są używane nawet na dworze), przy stacjonarnych pewnie wystarczy 250 - 300 cd (sam ustawiam zazwyczaj jasność < 50%).

Ustawiam ją wpierw z panelu monitora, dopiero potem ewentualnie w sterownikach graficznych (chodzi o oszczędność energii na pewno osiągalną, jeżeli steruje tym monitor).

Jak podłączać?

Cyfrowo. Na próbę podłączyłem oglądany zestaw pod miernik i sprawdziłem zużycie prądu przy statycznym obrazie testowym na DP i HDMI i różnic nie stwierdziłem. Proszę nie traktować tego jak profesjonalnej porady.

Clear-Type, dithering i ułożenie pikseli

Pisałem już o PPI, teraz trochę o części programowej - dawno, dawno określono pewne algorytmy, dzięki którym system operacyjny (znając rozdzielczość) jest w stanie wygenerować "ładniej" wyglądające czcionki.

Ważne jest tutaj wybranie:

  1. technologii antialiasingu (ClearType, subpixel, etc.)
  2. intensywności efektu polepszania (hintingu)
  3. sposobu, w jaki sposób zbudowano ekran LCD (jak ustawiono w nim piksele)

O ile w "starym i nienowoczesnym" Windows XP miałem "Microsoft ClearType Tuner PowerToy", gdzie do dyspozycji był "skomplikowany" ekran

to w "nowoczesnym" Windows 10 mam wyłącznie "prostego" czarodzieja, gdzie muszę wybierać między niewiele różniącymi się obrazkami (musze też użyć Rejestru, jesli mam wybrać sposób budowy ekranu).

Kurtyna.

Jak wygląda to w Ubuntu z Gnome?

Pozostaje np. instalacja "Gnome Tweaks" ze sklepu albo "sudo apt install gnome-tweaks"

Jeżeli chcemy poinformować system o sposobie ułożenia pikseli, to trzeba skorzystać z "dconf-editor"

(można też chyba nadal użyć linii komend).

Ode mnie złota malina, podobnie jak w przypadku Windows. 0.5:0.5

Aż chciałoby się zacytować mistrza Gordona: you, you, you, pi pi pi (grzecznie opuśćcie piekielną kuchnię i w spokoju skierujcie się do swoich pokojów)

Linki na dziś: http://www.lagom.nl/lcd-test/subpixel.php (jeżeli nie możemy znaleźć informacji o budowie ekranu, strona pomaga ją sprawdzić)

Wielkość czcionek i rozdzielczość

Ze względu na ostrość ma być ustawiona jak największa rozdzielczość, a wielkość czcionek dostosowana stosownie do naszych preferencji.

W Ubuntu do precyzyjnej kontroli tego ostatniego potrzebne jest wspomniane narzędzie "Gnome Tweaks" (standardowo mamy wyłącznie przełącznik "małe/duże czcionki), a w Windows robimy to z Panelu Sterowania.

1:0.5 dla szklarzy i kilka ekranów, tak dla zasady. Zacznijmy od historii:

Przejdźmy do surowej "nowoczesnej" siermiężności:

i skończmy na miksie:

Co z niebieskim światłem?

W Ubuntu ochrona przed nim jest wbudowana (przy czym czasem nie włącza się pomimo ustawienia opcji):

ta sama opcja w Windows nie sprawia żadnych problemów:

1:0.5 dla okien.

Nie wnikam w to, na ile takie światło jest szkodliwe, ale skądinąd doczytałem się, że w przypadku monitorów Dell konieczne jest wybranie zestawu "ComfortView", żeby wykorzystać reklamowaną w broszurkach podobną, realizowaną sprzętowo funkcję.

I kilka słów podsumowania

Pingwin wciąż wypada trochę gorzej, jeśli chodzi o łatwość konfiguracji (w mojej subiektywnej punktacji 2:3.5) - jest wszystko, ale jest nie dostępne od pierwszego wejrzenia.

Na samym monitorze nie ma co oszczędzać, nie chciałem też pisać peanów na cześć urządzeń amerykańskiej firmy.

Na pewno widzę, że mnie osobiście w nich bardziej odpowiadałaby powłoka ekranu określana jako "3H Hard Coating" niż zwykły "Hard Coating".

O ile nie przeszkadza nam brak precyzyjnego określenia barw przez temperaturę (monitory, które widziałem, mają wyłącznie nastawy "Warm", "Cool", itp.), to dla wielu z nas wystarczy seria P (i najważniejsza będzie tak naprawdę rozdzielczość)... albo trzeba szukać produktów innych firm, które mogą być znacznie tańsze i dawać znacznie lepsze wrażenia wizualne. Sugeruję tu bardzo uważne wczytywanie się w każdy parametr, bo diabeł ktwi w szczegółach (np. 6-bitowy panel).

Pamiętam, jak lata temu starałem się używać telefonów z AMOLED, miałem też okazję przyjrzeć iPod Nano z LCD. Ten ostatni na papierze był znacznie gorszy, zaś w praktyce pozwalał na wielogodzinne granie...

Dzisiaj w wielu wypadkach nie mam problemów, żeby u znajomych używać MacBooków (choć normalnie nietoleruję szklanych matryc). To sprowokuje mnie do stwierdzenia trzech rzeczy:

  1. nawet najlepsze urządzenie jest nic nie warte, jeśli nasze podstawowe zmysły są gwałcone
  2. popularność niektórych marek nie wynika z tego, że są dobre, tylko dlatego, że zrobiły dobrze techniczną robotę w pewnych najważniejszych obszarach
  3. nawet najlepsza technologia może być wdrożona w karygodny sposób (stąd nie ma co łapać się na wartości cyferek, tylko samemu trzeba mozolnie wszystko posprawdzać po kolei)

Abstrachując od tego, przejdźmy do innych zmysłów, czyli poruszmy w kilku słowach temat dźwięku i dotyku (już znacznie krócej).

Dźwięk

Na szczęście powoli odchodzimy od głośnych zasilaczy, dysków twardych, wentylatorów, itp.

To była prawdziwa zmora dla osób z wrażliwymi uszami, a obecnie nie jest problemem dobranie cichych komponentów do komputera stacjonarnego (sam ostatnio budowałem wyciszany system ITX z AMD na zamówienie).

Tutaj mała uwaga - przez długi czas było miło w przypadku płyt głównych i bardzo niedobrze się stało, że chipset X570 do AMD najczęściej parowany jest z wiatraczkiem.

W laptopach różnie bywa z głośnością układu chłodzenia - są ustawiane tak, że włączają się właściwie dopiero blisko temperatur krytycznych (częściowo MacBooki) i mają ustawienie zerojedynkowe (cisza / praca pod pełnym obciążeniem).

Użytkownicy radzą sobie z tym w różny sposób - ja np. pokazywałem, jak sobie radzić z Dellem w Windows 10.

Urządzenia zarówno stacjonarne, jak i przenośne, wciąż cierpią na piszczące cewki (mnie się to nie zdarza obecnie, ale w przypadku tańszych modeli jak najbardziej jest możliwe). Nie jest to chyba przypadek odosobniony, skoro pojawiają się takie filmiki:

Te wszystkie aspekty (głośność i piszczenie) są testowane znów m.in. przez https://www.purepc.pl/ i https://www.notebookcheck.net/

Jeżeli chodzi o układy dźwiękowe, to kiedyś mieliśmy bardzo dobrą sytuację - kolejne karty dźwiękowe oferowały coraz lepsze parametry.

To się zmieniło z nadejściem kart zintegrowanych (mamy też nie tylko układy na płytach głównych, ale również możliwość przesyłania dźwięku z karty graficznej do monitora) i dzisiaj mało kto decyduje się na zakup oddzielnego pudełka na PCI-e czy USB.

Stało się - ludzie o dobrym słuchu muszą się pogodzić, że czasem trzeba cierpieć...

Parzący dotyk

Temperatury to temat rzeka, który wraca jak bumerang - w komputerach przenośnych TDP bywa coraz niższe, a wraz z nim zmniejsza się grubość i wydajność układów chłodzenia. To widać szczególnie w najmniejszych modelach, ale nie tylko.

Myślę, że częściowo ten temat będzie rozwiązany w 2020 - Dell wypuścił mocno zmienione układy w serii XPS i Precision, w modelach z Ryzen 3950x mamy więcej miedzi, itp.

A na testy zapraszam na strony https://www.purepc.pl/ i https://www.notebookcheck.net/

Wygląda na to, że narzekania użytkowników cześciowo zostały wysłuchane, co prowokuje do szerszej refleksji...

"All of this has happened before and will happen again"

Spectrum vs Atari, Java vs Kotlin, Amiga vs Pecet, Windows vs Linux, AMD vs Intel, x86 vs ARM - małe śmieszne wojenki trwały, trwają i będą trwać. Miliony bloggerów i dziennikarzy muszą żyć, młode wilki chcą się wykazać, w firmach ważny jest mityczny wzrost.

Całe to czytanie "rynek PC skurczył się o 10%" (to co, wszyscy nagle wrzucili komputery do niszczarek?) albo "AMD pracuje nad ZEN5" / "Samsung pracuje nad "Galaxy Note 20" / "Apple pracuje nad iPhone 12" (a nad czym innym mają, do jasnej ciasnej, pracować?) mnie szczerze mówiąc już męczy. Podobnie jest z oglądaniem płaczu, że po wielu latach "wzrostu" jeden gorszy kwartał to już katastrofa.

Korporacje narzekają na brak zbytu i obniżają koszty, jak obniżają koszty, to spada jakość, jak spada jakość, to mniej nowych produktów znajduje nabywców. Zakup drogich urządzeń to brak wymiany przez dłuższy czas, a to też niedobre z punktu widzenia producentów (i dlatego nie zawsze drogie = dobrej jakości).

To jest pewien cykl i (nie)naturalna kolej rzecz - dochodzimy do doskonałości, tniemy ją aż do progu bólu, po jego przekroczeniu zaczynamy zabawę od nowa.

Dobrze, jeżeli w międzyczasie na rynek wchodzi nowa technologia - wtedy i tylko wtedy jest na co się przerzucić i można mówić o postępie.

Obecna sytuacja w wielu obszarach IT potwierdza koniec kolejnego cyklu tego procesu (pokazywałem to dla softu na porównaniu do lotnictwa). Starają się właściwie tylko firmy, które chcą przejąć rynek - stąd "wspaniałomyślna" zmiana zdania przez AMD w przypadku obsługi Zen 3 (myślę, że doskonale czują problemy, jakie ich czekają na rynku laptopów).

Ameryki chyba tym nie odkryję, że wpadliśmy w pewien kołowrotek... pod tytułem "produkujemy tony śmieci, bo fabryki już są, jest też plan do wyrobienia i użytkownicy wezmą wszystko, jak leci".

W przypadku monitorów: dlaczego nie można ich zasilać z USB? Dlaczego dołączane są do nich kable zasilające, papierowe instrukcje, słabej jakości stopki i kable VGA? Dlaczego w ogóle produkuje się jeszcze przetworniki do tego ostatniego standardu?

W przypadku nowych płyt głównych: dlaczego mamy złącza VGA? (ASUS Prime B550M-A)

Jakiś czas temu (naiwnie ?) myślałem, że jedynym rozwiązaniem byłby powrót do starej dobrej sprawdzonej modułowości, ale do tego nie dojdzie, bo elektronikę można produkować zbyt tanio.

Żeby obecna była elektronika dla ludzi, trzeba umieć ją projektować i przeciwdziałać sabotażom na etapie produkcji:

(ewentualnie https://antyweb.pl/uszkodzony-kabel-lightning-to-nie-przypadek-a-konse...)

Lecz się sam (znowu)

Może w tej sytuacji warto usiąść do nauki, poznać podstawowe zasady i zacząć coś tworzyć samemu?

Popatrzmy na przykład na to:

i

Nie musimy czekać na kolejne wspaniałe urządzenia i na to, że ludzie pracujący po 12h w korporacjach sami za nas wszystko zrobią (wielu z nich jest za bardzo zmęczonych po tej harówce).

Już dziś mamy wszystko, żeby rewolucje dokonywały się właściwie automatycznie... używajmy eGPU, NVME i wszystkiego innego... składajmy, róbmy i działajmy. Kiedyś internety były na dyskietkach, teraz są światłowody. Kiedyś nie było darmowego oprogramowania, teraz się zewsząd wylewa. Dużo tego jest.

Myślę, że najlepszy przykład dają Azjaci albo inicjatywy z Kickstarter (pytanie tylko, czy chce nam się do nich dołączyć i uczknąć trochę z tego tortu). Nie potrzebujemy nawet 5G czy innych "wspaniałych" wynalazków - wydaje mi się, że w naszym interesie jest wręcz opóźniać ich wprowadzanie i tym samym zmuszać producentów do lepszej utylizacji tego, co już jest (proszę nie myśleć, że chodzi o jakiś sprzeciw przeciw postępowi - to są dwie różne rzeczy)

Dobry przykład tej zasady, to reakcja na burzę rozpętaną przez AMD. Początkowo nawet ich tłumaczono:

obecnie "łaskawie" zmienili zdanie, bo nie mieli wyjścia.

Tak samo było ostatnio z Netflix, który ocenzurował nawet 'Powrót do przyszłości' (więcej).

Dzisiejsze zakupy to przede wszystkim pole minowe... pisałem o tym kilka razy i powtórzę to ponownie. Mamy możliwość zakupów na odległość i możliwości zwrotu towaru w przeciągu 28 dni (14 dni na wysłanie oświadczenia i 14 dni na odesłanie towaru, który nie powinien być uszkodzony i ma spełniać różne kryteria). Nie nadużywajmy tego, ale również korzystajmy, gdy musimy, dzielmy się doświadczeniami i próbujmy wyciągnąć coś dobrego z całej sytuacji.

...i bardzo uważajmy, której firmie dajemy nasze pieniądze.

Tylko tyle, i aż tyle.

Nie daj się zwariować

Ktoś mógł przyjść tutaj, żeby wszcząć gównoburzę, a ja coś bredzę o jakimś myśleniu, o jakimś tworzeniu i innych głupotach.

Myślę, że zbyt wielu daje się wciągnąć w jakieś nieistotne, sztucznie napędzane, ekscytacje. Wspomnę o dwóch najważniejszych rzeczach, czyli polityce i polityce.

Sprawa pierwsza, czyli radiowa Trójka. Wielu ludzi z poprzedniego pokolenia czasem musiało podpisywać różne dokumenty (byli młodzi, chcieli wyjechać, itd.), obecny rynek muzyczny też ma swoje za uszami. Dobrze ujęła to pani Rabczewska (podobnież bardzo inteligentna kobieta): https://web.facebook.com/officialdoda/posts/3164887936889801?_rdc=1&a...

Czy coś zmieni, jak jakiś Kowalski zacznie krzyczeć na jakimś tam forum?

Tak samo wirusy były, są i będą... ten ostatni daje nam się we znaki w sposób niespotykany i to jest jedyna różnica. Myślę, że wielu ludzi chce od tego uciec i mieć nadzieję, że już jutro wszystko będzie jak dwanaście miesięcy temu. Świat oczywiście przetrwa, ale dużo rzeczy się zmieni. Zamiast nazywać innych pospólstwem albo tkwić w śmiesznych dyskusjach pod tytułem "skoro masz Androida, to nie jesteś mi godzien pucować butów", zacznijmy w końcu coś robić z tą techniką... albo przynajmniej pisać, jakie są jej wady i zalety.

Pamiętajmy przy tym jedno - po całej tej awanturze w wirusem będzie duża nagonka na konsumpcjonizm. Nie dajmy się zwariować. Nie warto.

Tyle ode mnie, może bez ładu i bez składu, ale sam jestem zmęczony różnymi rzeczami.

PS. Dla porównania kilka słów z 2011: http://mwiacek.com/www/?q=node/189 (Notebook A.D. 2012, czyli o czym trzeba mieć świadomość...) czy http://mwiacek.com/www/?q=node/188