felieton (strona 25 z 25)

Twórca WWW zdradził swoje własne ideały wolnej Sieci?

Próby wprowadzenia rozszerzeń Encrypted Media Extensions do zbiorustandardowych technologii webowych od samego początku byłykrytykowane przez organizacje walczące o wolność Sieci, ostrzegające,że doprowadzi to do upowszechnienia rozwiązań DRM-owych i zamknięciatreści przed użytkownikami. Teraz jednak, gdy dyrektorodpowiadającego za standardy webowe Konsorcjum WWW, sir TimBerners-Lee, uznał,że kwestia taka jak odtwarzanie chronionych treści może być objętaaktem założycielskim tej organizacji, krytyka przeobraziła się wotwarte oskarżenie. Electronic Frontier Foundation uznało, że twórcaWWW obniżył swoje moralne standardy.Czy chcecie stron internetowych, z których nie można kopiować iprzeklejać tekstu? Czy chcecie przeglądarek, które nie mogą zapisaćobrazka na dysku ani wyświetlić źródła dokumentu HTML? Czy chcecieWWW, którego wykorzystanie jest kontrolowane przez coś innego niżprzeglądarka? Taki właśnie obraz Sieci sterowanej technologiami DRMrysujeDanny O'Brien z Electronic Frontier Foundation, ostrzegając przedkonsekwencjami „zielonego światła” dla Encrypted MediaExtensions. Zaakceptowanie DRM wśród standardów webowych (EME możestać się częścią HTML 5.1) oznacza, że organizacja, która walczyładotąd o wolne i otwarte standardy, zgodziła się nagle na oddaniekontroli nad user agentem (czyliprzeglądarką w terminologii W3C) dostawcom treści. [img=timbernerslee]Wśród promotorów EME jestNetflix, największy w Internecie dostawca usług Video on Demand, dlaktórego DRM-owa ochrona oferowanych filmów jest kwestią być albo niebyć w erze przeglądarek, w których Silverlight i Flash nie będą jużdziałały – nikt nie przekona Hollywood, że zabezpieczenia takiesą skuteczne tylko w jednym obszarze, czyli irytowaniu płacącychużytkowników. O'Brien uważa jednak, że na filmach się nie skończy:kilka lat temu o zabezpieczeniach DRM marzyły cyfrowe odlewnie,przekonane że w ten sposób uniemożliwią twórcom stron WWWwykorzystanie ich fontów bez opłacenia licencji. Wtedy ich marzenia oimplementacji DRM w technologii WOFF zostały odrzucone, ale jeśli W3Czgadza się teraz na DRM dla filmów, to czemu nie miałoby się zgodzićna DRM dla fontów?Takich pomysłów jest więcej.Niedawnopowstała grupa robocza W3C Web App Source Code ProtectionCommunity Group, której celem jest stworzenie mechanizmów, którepozwolą na uruchamianie w przeglądarce aplikacji tworzonych za pomocąstandardowych technologii webowych, przy jednoczesnym uniemożliwieniusprawdzenia ich kodu źródłowego i zasobów. Koncepcja Encrypted Mediaspodobała się też fotografom, liczącym na to, że można by było wjakiś sposób uniemożliwić kopiowanie zdjęć wyświetlanych wprzeglądarkach. Jak więc widać, opisywana przez O'Briana przyszłośćnie jest wcale taka niemożliwa – a otwiera do niej drogęczłowiek, który zdołał zbudować WWW tylko dzięki istnieniu wolnegooprogramowania i otwartych dla wszystkich danych. Jak ostrzega EFF –w takiej przyszłości nikt już nie zbuduje nowej, zgodnej zestandardami przeglądarki bez podpisywania umów z dostawcami DRM-ów.Oczywiście W3C może ogłosićteraz, że DRM jest tylko dla uprzywilejowanej elity z Hollywood, alewówczas zostanie oskarżone o nierówne traktowanie podmiotówzainteresowanych ochroną swojej treści. Wcześniej czy późniejzostanie więc zmuszone do zaakceptowania tych wszystkich innychmechanizmów zabezpieczających, których dostawcy zaczną grozić, żejeśli nie dostaną DRM-ów, to się ze swoimi treściami z WWW wyniosą,tak jak dziś robią to studia filmowe. Oczywiście nie do końcawiadomo, gdzie miałyby się one wynieść (do AppStore?), ale nieprzeszkadza to przecież Netfliksowi przedstawiać WWW bez DRM jakomiejsca, w którym komercyjnych filmów już nie znajdziemy.Zielone światło od W3C nieoznacza oczywiście, że wszyscy ludzie związani z WWW uklękną teraz iprzyjmą decyzję Bernersa-Lee jak dobrą nowinę. Bunty przeciwkodecyzjom Konsorcjum już się zdarzały, a najważniejszym z nich byłoutworzenie przez Mozillę, Operę i Apple organizacji WHATWG,odrzucającej próby narzucenia standardu XHTML. Obecnie WHATWG taksamo odrzuca forsowaną przez Google, Microsoft i Netfliksa ideeEncrypted Media Extension – w jej specyfikacji HTML LivingStandard żadnych technologii DRM nie ma. Być może więc akceptacja EMEprzez dyrektora W3C doprowadzi jedynie do upadku roli webowychstandardów: każdy producent będzie wybierał to, co mu odpowiada, czyto ze względów ideologicznych, czy biznesowych.

25 mln dolarów, by badania nad sztucznymi inteligencjami zacząć na nowo

Kiedy w latach pięćdziesiątych zeszłego wieku tacy uczeni z MIT,jak Marvin Minsky i Claude Shannon, rozpoczynali swoje badania nadsztuczną inteligencją, ich optymizm udzielał się wszystkim.Sceptyczni wobec AI filozofowie, tacy jak Wittgenstein, nie bylibrani przez naukowców poważnie: kwestie takie jak budowanie maszynużywających języka czykształtowanie abstrakcji i koncepcjiwydawałyim się kwestiami inżynieryjnymi. Zachwycony postępem w budowie„mózgów elektronowych” Minsky nie obawiał się nawetgłosić, że problem zbudowania sztucznej inteligencjizostanie rozwiązany w ciągu jednego pokolenia.Sprawypotoczyły się jednak inaczej – i już w latach 90 większośćteoretyków AI rozkładała ręce, przyznając, że nie wie, na czym polegafenomen inteligencji, uznani zaś filozofowie i fizycy, tacy jak JohnSearle czy Roger Penrose pisali prace, mające dowieść, że zbudowaniemaszynowego umysłu jest z gruntu niemożliwe. Gwałtowny postęp winformatyce i elektronice, do jakiego doszło na początku nowegostulecia trochę nastroje poprawił, zaczęły się pojawiać zdolne downioskowania systemy eksperckie, poczyniono spory krok naprzód wdziedzinach takich jak rozpoznawanie obrazów czy kształtów, aleparadoksalnie umocniło to świadomość ograniczeń współczesnejinformatyki. Jak wyjaśnia Tomaso Poggio, kognitywista z MIT, wciążnie rozumiemy, jak mózg umożliwia wyłonienie się inteligencji, niewiemy też jak budować maszyny równie inteligentne.[img=brain]Ten sam Poggiojest jednak przekonany, że czas wrócić do ducha optymizmu z latpięćdziesiątych i rozpocząć przygodę ze sztuczną inteligencją nanowo. Jako że dziś wiemy o mózgach znacznie więcej niż wtedy, możemyzacząć pracować nad inteligentnymi maszynami, czerpiąc zwspółczesnych neuronauk, kognitywistyki i informatyki. Pragnieniauczonego są bliższe realizacji niż kiedykolwiek. Otrzymał on właśnieod amerykańskiej National Science Foundation 25 mln dolarów nadziałanie w MIT jednostki badawczej o nazwie Centerfor Brains, Minds and Machines (CBMM), mającej kontynuować pracezapoczątkowane w ramach MIT Intelligence Initiative, programu któregocelem było odkrycie, jak inteligencja powstaje w mózgu i jakodtworzyć to w maszynach.W pracach CBMMuczestniczyć mają nie tylko badacze z MIT, ale też innych uczelniamerykańskich i zagranicznych – zainteresowanie współpracązgłosiły instytuty naukowe z Niemiec, Włoch, Izraela, Indii i HongKongu. Wśród korporacyjnych partnerów projektu znaleźć można m.in.IBM, Google i Microsoft. Tomaso Poggio ma nadzieję, że jednostkabadawcza, na czele której stanął, pozwoli na koordynowanie współpracynie tylko między różnymi ośrodkami, ale też między różnymidyscyplinami nauki, do tego stopnia, że doktoranci mają tam mieć pokilku opiekunów naukowych.Interdyscyplinarnepodejście, połączone z naciskiem na całościowy ogląd kwestiiinteligencji, pozwolić ma na skuteczne zaatakowanie problemów do tejpory wymykających się pojedynczym dyscyplinami. W szczególnościchodzić będzie o połączenie obszarów badawczych inteligencjimaszynowej, neurobiologii, rozwoju inteligencji u dzieci iinteligencji społecznej. Patrick Winston, koordynator badań w CBMMwyjaśnia, że w ludzkim poznaniu kwestie widzenia, języka i motorykiciała są nierozerwalnie powiązane, mimo że poszczególne dziedzinychciały badać je oddzielnie. Przykładem może być opisywanie obrazów:człowiek uzna obraz człowieka trzymającego szklankę przy ustach jakoobraz picia. Jeśli szklanka będzie jednak trzymana w określonejodległości od ust, to scena zostanie uznana za obraz wznoszeniatoastu. Jednocześnie za obraz picia człowiek uzna wizerunek kota,który próbuje złapać kilka kropli wody z przeciekającego kranu.Trzeba myśleć o tym co się widzi w kategoriachopowieści. Oba obrazki otrzymują taką samą etykietę dlatego, że to tasama opowieść, a nie dlatego, że wyglądają podobnie –wyjaśniaWinston.Czy inicjatywa MIT przyniesie realny przełom w dziedzinie AI,pokaże dopiero czas. Patrząc jednak na te wszystkie porażki nie mniejambitnych inicjatyw związanych z kognitywistyką czy sztucznymiinteligencjami nie sposób oprzeć się wrażeniu, że problem polega natym, że dla posiadaczy młotków każdy problem wygląda jak gwóźdź. Coprawda wspomniane wyjaśnienia Winstona zdradzają pewne filozoficznezrozumienie zagadnienia języka i myślenia, ale wciąż omijają problempodstawowy, którego nie da się zredukować do „gwoździa”,dotyczący tego, czym jestmyślenie.

Agenci NSA „od środka” szkodzili technologiom chroniącym prywatność komunikacji?

Przeglądanie w ostatnich tygodniach kanały RSS mediów poświęconychtechnologiom upewnia, że sprawa masowej inwigilacji internautów przezamerykańską Agencję Bezpieczeństwa Narodowego nie rozeszła się pokościach, a skala na jaką prowadzono prace mające ułatwić takiejinwigilacji prowadzenie przekraczają wszystko, czego można się byłospodziewać. Ton komentarzy tak specjalistów od bezpieczeństwa, jak iszeregowych internautów nierzadko ociera się o paranoję – możnasię dowiedzieć z nich, że NSA mogłoby kontrolować nasze komputerynawet poprzez mikrokod procesorów Intela, czy też zdołało znaleźćsposoby na szybkie łamanie szyfrów, nieznane uniwersyteckimmatematykom. Wśród wieści paranoicznych pojawiają się też całkiemdobrze udokumentowane doniesienia. Ich zignorować nie sposób, ajedynym sposobem na wyeliminowanie zagrożeń o których mówią, byłobycałkowite przemyślenie od podstaw naszego podejścia do bezpieczeństwasystemów informatycznych.John Gilmore, jeden z czołowych działaczy na rzecz wolnegooprogramowania i ochrony prywatności użytkowników (m.in.współzałożyciel Electronic Frontier Foundation), dokładnie przyglądasię też pracom rozmaitych komitetów standaryzacyjnych technologiiinternetowych. Jego najnowsze doniesienia, dotyczące tego, co wostatnich latach działo się w jednym z takich komitetów, pokazują, żemechanizmy zabezpieczeń, z których korzystamy na co dzień, mogą byćcelowo projektowane tak, by ich obejście było dla wtajemniczonychprostą sprawą.[img=crypto-break]Tu problem dotyczy IPSEC, zestawu protokołów internetowych, któresłużą do szyfrowania pakietów IP, wzajemnego uwierzytelnianiaklientów i negocjowania rodzaju wykorzystywanych kluczy szyfrujących.Działają one na warstwie internetowej modelu TCP/IP, a więc chronićmogą ruch sieciowy z każdej aplikacji. Zaprojektowano je jeszcze wlatach 90, przede wszystkim z myślą o IPv6, ale nawet dziś, zoczywistych powodów, wykorzystywane są przede wszystkim do ochronyruchu IPv4. Wśród sekretów NSA, wyjawionych przez Edwarda Snowdena, znalazłasię informacja, że w ramach programu o kryptonimie BULLRUN agencja tapróbuje wprowadzać do systemów, sieci, i urządzeń komunikacyjnych,tak otwartych jak i własnościowych luki i furtki, które uczyniłybyich zabezpieczenia bezwartościowymi. Jednym z głównych celów dla NSAmiał być właśnie IPSEC, a konkretnie implementacja jego stosu dlaznanego z bezpieczeństwa systemu OpenBSD. Doniesienia o tym, że ktośpracujący dla federalnej administracji USA miałby celowo umieścić wimplementacji IPSEC takie luki pojawiły się po raz pierwszy w 2010roku, dziesięć lat po ich rzekomym umieszczeniu w kodzie –napisało tym sam Theo de Raadt, główny deweloper OpenBSD. Trudno byłoocenić realny wpływ furtek na bezpieczeństwo IPSEC, ale GregoryPerry, były konsultant FBI, który powiadomił de Raadta o problemie,sugerował, że pozwolić one miały na monitorowanie ruchu po VPN.Wyjawił też, że Scott Lowe, jeden z głównych ekspertów odwirtualizacji OpenBSD, propagujący wykorzystanie tego systemu wkorporacyjnych środowiskach IT, był opłacany przez FBI.OpenBSD to system niszowy, ale jego implementacja IPSEC, pierwszadostępna na wolnej i bezproblemowej licencji BSD, niszową już niebyła – chętnie korzystali z niej twórcy innych systemówoperacyjnych. W rezultacie furtki rozprzestrzenić się miały na innesystemy operacyjne i urządzenia sieciowe. Nawet jeśli jednak samaimplementacja IPSEC w OpenBSD, przyjmując tysiące łatek przez tewszystkie lata prac nad systemem, stała się zasadniczo wolna odfederalnych furtek, to i tak NSA może wciąż mieć swoje sposoby naskuteczne ataki przeciwko temu zabezpieczeniu. Wygląda bowiem na to,że sam standard został od początku tak zaprojektowany, by nie był zawiele wart.Gilmore utrzymuje,że w komitecie opracowującym IPSEC (formalnie podlegającymorganizacji Internet Engineering Task Force), od początku pracownicyNSA zajmowali kluczowe pozycje, byli też redaktorami dokumentów. Wtym samym nie ma oczywiście nic złego – nie ma żadnego prawazakazującego informatykom z NSA pracować nad otwartymi standardami.Jednak to, jak wyglądała praca tych ludzi, musi już budzićwątpliwości. Przyjmowano od rzekomo niezależnych osób z zewnątrzsugestie pozornie rozsądne, jednak zmniejszające bezpieczeństwo iprywatność IPSEC, jak np. wykorzystywanie tych samych wektorówinicjalizacji przez całą sesję, zamiast generowania nowych dlakażdego pakietu, czy utrzymanie opcji komunikacji bez szyfrowania,lub wykorzystania słabych, dawno już złamanych szyfrów. W efekciepowstał twór tak skomplikowany, że żaden poważny kryptograf niechciał go nawet analizować pod kątem bezpieczeństwa. Niels Ferguson iBruce Schneier w swoim artykulepoświęconym IPSEC sformułowali nawet nową regułę, tzw. PułapkęZłożoności: największym wrogiem bezpieczeństwa jest złożoność,sugerując przy tym, że protokołykryptograficzne nigdy nie powinny być opracowywane przez komitety.Nie tylko IPSEC miał być w tensposób sabotowany przez pracowników NSA. John Gilmore ostrzega, żeludzie ci otwarcie kłamali przed innymi komitetami standaryzacyjnymi.Stało się tak w kwestiach szyfrowania połączeń komórkowych, gdziestraszono ich członków, że nie mogą omawiać bezpiecznych protokołów,póki nie wyproszą wszystkich należących do międzynarodowego komitetuobcokrajowców z pokoju obrad – rzekomo miałoby to naruszaćprawo USA dotyczące kontrolowanych technologii. Efekt? Do dzisiajżaden z komitetów standaryzacyjnych telefonii komórkowej nie przyjąłżadnego protokołu ochrony prywatności typu end-to-end, dzięki czemuNSA może mieć pewność, że nigdy zabezpieczenia takie nie będądomyślnie umieszczane w dostępnych na rynku telefonach.W 2010 roku większość osób kpiłaz doniesień o lukach w OpenBSD. Czasy się jednak zmieniły –prawie nikt nie kwestionuje autentyczności materiałów ujawnionychprzez Snowdena, a z nich wynika jasno, że SSL, TLS i rozmaite typyVPN-ów wcale nie zapewniają takiej ochrony, o jakiej przekonani byliich użytkownicy. Schneier sugeruje,że jedynym ratunkiem mogą być działania polityczne, przeprowadzenieczystki w służbach wywiadowczych przez amerykańskich prokuratorówniepowiązanych z władzą, wojskiem i wywiadem, uzbrojonych winstrumenty prawne, pozwalające im na wydobycie całej prawdy odziałaniach NSA. Czy jednak znalezienie takich ludzi jest w ogólemożliwe? Świat IT na pewno tego nie zrobi – z „naszej”strony jedyne, co możemy, to ulepszać technikę i śledzić pracematematyków.

Bitcoiny nie są oficjalnym środkiem płatniczym w Niemczech, tak jak nie są nimi papierosy

Po ostatnim kolapsie kursu Bitcoina (który u szczytuspekulacyjnej górki był wymieniany względem dolara w stosunku1:260, by w ciągu kilku dni stracić 2/3 swojej wartości), urzędyzwiązane z regulacją rynku finansowego w wielu krajach zaczęłysię bliżej przyglądać tej pierwszej z kryptograficznych walut.Nic w tym dziwnego – póki jeszcze głównym zastosowaniem Bitcoinabyły czarnorynkowe transakcje na małą skalę (z jakiegoś powodudo czarnorynkowych transakcji na dużą skalę służyło raczejLiberty Reserve), kryptowaluta nie stanowiła specjalnego problemu. Wmomencie, gdy głównym zastosowaniem stała się spekulacja, adziesiątki tysięcy zwykłych obywateli zaczęły myśleć olokowaniu w Bitcoinach swoich oszczędności, problem stał sięznacznie poważniejszy. Reakcja niejednego z ewangelistów Bitcoina była dośćzaskakująca – zaczęto coraz częściej deklarować, że bitcoinynie są pieniędzmi, i jako takie nie podlegają regulacji instytucjifinansowych. Czym więc są? Ano nośnikiem wartości, wirtualnymżetonem, który można kupić za określoną w danym czasie kwotę inp. przekazać drugiej osobie, która je odsprzeda, za określonąkwotę (oby nie niższą). [img=bitcoin]Oczywiście instytucje finansowe nie muszą się specjalnieprzejmować tym, co mówią poszczególni ewangeliści Bitcoina, ikwestię jego statusu prawnego rozstrzygają zgodnie z własnymipotrzebami. I tak oto z końcem lipca użytkowników Bitcoinazaskoczyła wiadomość, że oto w Tajlandii kryptowaluta zostałauznana za „zakazaną”. Rzeczywistość była znacznie mniejsensacyjna – otóż jeden z tajskich punktów wymiany miałotrzymać zakaz handlu bitcoinami, ponieważ bank centralny tegokraju uznał, że nie są one walutą i nie istnieją przepisyregulujące taki obrót. Oczywiście banki centralne nawet wTajlandii nie stanowią prawa, ani nie rozstrzygają o legalnościdanych zjawisk, jednak prasa swoje podchwyciła, nie zauważając, żedwa inne tajskie punkty wymiany orzeczeniem się nie przejęły, idalej handlowały bitcoinami. Teraz znów zrobiło się głośno o legalności i statusiebitcoinów – nawet w najpopularniejszych polskich portalachpojawiły się sensacyjne nagłówki, sugerujące, że w Niemczechkryptowaluta stała się legalnym środkiem płatniczym – np.„Niemcy mają nową walutę! Już oficjalnie” w WirtualnejPolsce. I tym razem sensacyjne nagłówki nie mają za wielewspólnego z rzeczywistością. A jak ta rzeczywistość wygląda?Jak zwykle bardziej prozaicznie.W odpowiedzi na zapytanie jednego z deputowanych Bundestagu,Franka Schäfflera z FDP, o status Bitcoina w świetle niemieckiegoprawa, niemieckie Ministerstwo Finansów orzekło, że nieklasyfikuje bitcoinów jako e-pieniędzy, ani też funkcjonalnejwaluty. Bitcoiny nie mogą być też uznane za walutę zagraniczną.Jednak są one, w świetle niemieckiego prawa czymś, co nosi nazwęRechnungseinheit, jednostki rozliczeniowej. Taką jednostkąrozliczeniową, jak być może pamiętają nasi najstarsi Czytelnicy,była np. EUA, służąca jako instrument wzajemnych rozliczeńpomiędzy państwami-stronami Wspólnot Europejskich w latach1975-79, taką jednostką rozliczeniową są też przecież papierosyw więzieniach.Z kolei proces wytwarzania nowych bitcoinów (czyli tzw. górnictwoBitcoina), jest w rozumieniu niemieckiego Ministerstwa Finansówwytwarzaniem prywatnego pieniądza.Nie ma w tym nic rewolucyjnego – niemieckie prawo akceptujeistnienie prywatnych walut, które mogą służyć do wzajemnychrozliczeń między stronami transakcji, nie mogą jednak posłużyćdo opłacenia należnego państwu podatku. Taką walutą jest np.Chiemgauer z Bawarii, pomyślany jako lokalna waluta do promowanialokalnego biznesu, odnawialnej energetyki i działań na rzeczspołeczności, na sztywno powiązana z euro (kursem 1:1), alekierująca się własnymi zasadami, (m.in. należy płacić 2%podatek za jej posiadanie, a np. organizacje non-profit mogą kupowaćchiemgauery o 3% taniej, niż firmy). Zyski wypracowane wchiemgauerach są oczywiście normalnie opodatkowane, płaci się jew euro – i tego właśnie oczekuje niemieckie Ministerstwo Finansówod zysków wypracowanych w bitcoinach.Z tym łatwo nie będzie, bowielu użytkowników Bitcoina zachowuje się jak te trzy małpki –nic nie widzę, nic nie słyszę, nic nikomu nie powiem. Pozostającw cieniu pseudonimowości tej waluty, stymulują drugi obieggospodarczy, nie poddany regulacji władzy, i dowodzący, że możnabez takich regulacji żyć. Kochający wolność mieszkańcyberlińskiego Kreuzbergu dobrze o tym wiedzą, to w końcu miejsce,gdzie łatwiej zapłacisz bitcoinami z mobilnego portfela wsmartfonie, niż wystawiona przez polski bank kartą kredytową (dlaniezorientowanych – płacenie w Niemczech kartą inną niżmiejscowe Giro bywa bardzo niewdzięcznym zajęciem).Nie sposób jednak zaprzeczyćjednemu – postawa władz Niemiec względem Bitcoina jestodczuwalnie bardziej przyjazna, niż ta, którą coraz częściejmanifestują władze USA (pomimo tego, że to w USA rozkwitanajwięcej bitcoinowych biznesów). Przykładowo w ostatnich dniachBenjamin Lawsky z Departamentu Usług Finansowych stanu Nowy Jorkostrzegł, że jeśli wirtualne waluty pozostaną DzikimZachodem handlarzy narkotyków i innych kryminalistów, to nie tylko zagrozi to bezpieczeństwu narodowemu USA, ale też samemu istnieniulegalnego biznesu związanego z wirtualnymi walutami.Cóż, pozostaje przypomniećpanu Lawsky'emu, że Dzikim Zachodem kryminalistów były, są i będąpapierowe banknoty z wizerunkami amerykańskich prezydentów, czyliznakomity środek płatniczy do przeprowadzania całkowicieanonimowych, nie pozostawiających śladu transakcji.Nam pozostaje patrzeć na to,którą drogę wybiorą władze Polski – czy bliższy się okażemodel niemiecki, czy amerykański. Żyjąc już trochę na świecie,czuję że i tym razem pójdziemy drogą USA, kraju paradoksalnieznacznie nam bliższego, niż sąsiad zza Odry.

Skype na stałe zintegrowany z Windows 8.1: czeka nas nowy proces antymonopolowy?

Microsoft oficjalnie w zeszłym tygodniu ogłosił,że Skype staje się częścią „okienek”. Od Windows 8.1 tennajpopularniejszy na świecie komunikator VoIP, kupiony w maju 2011roku za ponad 8,5 mld dolarów, będzie podstawowym komunikatoremcałego ekosystemu oprogramowania Microsoftu, w ramach strategiijednolitego doświadczenia. Skypedostępne będzie bezpośrednio z ekranu Start i zintegrowane zinterfejsem Modern UI, umożliwiając np. dzielenie treści przez menuZaklęć.Ryan Gavin, główny menedżer MicrosoftApps&Services zachwala tę decyzję następująco: Teraz już niebędziesz musiał pobierać ulubionej aplikacji by pozostać w kontakciena odległość. W Windows 8.1 po prostu się zalogujesz i będziesz mógłrozmawiać. Oznacza to, że będziesz miał dostęp nie tylko do 300 mlnużytkowników Skype korzystających z niego na różnych urządzeniach,ale też do każdego, kto korzysta z komputera z Windows 8.1.[img=skype]Integracja zamkniętegokomunikatora z systemem operacyjnym na taką skalę jest czymś, couzasadnia kwotę, za jaką Microsoft zdecydował się nabyć Skype.Doprowadzi ona najprawdopodobniej do znacznego wzrostu liczbyużytkowników Skype'a, w tym klientów korzystających z płatnych usługkomunikacyjnych. Popularność komunikatora wyraźnie bowiem rosła pojego przejęciu, nawet gdy funkcjonował on jako niezależna usługa wramach Microsoftu – w drugim kwartale 2012 łączny czas trwaniapołączeń głosowych przez Skype wyniósł 115 mld minut, o ponad 50%więcej, niż w poprzednim kwartale, W marcu tego roku Kevin Turner,dyrektor operacyjny Microsoftu, poinformował zaś, że już 1/3wszystkich połączeń głosowych na świecie przeprowadzana jest przezSkype.Problem tkwił jednak w tym, żeten ogromny rynek połączeń głosowych jest coraz mniej wart. Cenyusług telekomunikacyjnych maleją z roku na rok, podobnie jak iprzychody operatorów. Jeśli jednak Skype stałoby się częściąwszystkich systemów Microsoftu, na wszystkich rodzajach urządzeń, odtelefonu po komputery i konsole, jego realna wartość tkwiłaby w czymśinnym: Skype stałoby się domyślnym komunikatorem dla całej planety,praktycznie nie zostawiając miejsca dla konkurencji.Alex Wilhelm z TechCrunchazauważaten problem, przypominając przy okazji sprawę antymonopolowychdochodzeń prowadzonych przez Komisję Europejską przeciwkoMicrosoftowi. Jak wielu z Was pamięta, gigant z Redmond był jużoskarżany o nadużywanie swojej monopolistycznej pozycji –pierwszy raz za sprawą integracji z Windows odtwarzacza mediówWindows Media Player, drugi raz, za sprawą integracji z Windowsprzeglądarki Internet Explorer. O ile jeszcze dla regulatorów zBrukseli deklaracje o połączeniu z Windows 8.1 schowka plików wchmurze SkyDrive brzmieć mogą zasadniczo niegroźnie (w końcu co tojest to SkyDrive?), to o Skype słyszał praktycznie każdy, nawetpozbawiony technicznej wiedzy urzędnik w Brukseli. Scenariusz, wktórym Redmond zmuszone zostaje do zaoferowania użytkownikom„okienek” ekranu wyboru komunikatora nie wydaje sięnierealne – problem z nim tylko taki, że o ile w wypadkuInternet Explorera łatwo było wskazać alternatywne przeglądarki, to wwypadku Skype'a będzie to znacznie trudniejsze.
Debian obchodzi 20. urodziny

Debian obchodzi 20. urodziny

Sporo ostatnio ważnych dla IT 20. rocznic – niedawnoobchodziliśmy dwudziestolecie Slackware, potem dwudziestoleciepierwszego Windows NT, a teraz czas na dwudziestolecie Debiana,linuksowej dystrybucji, która jest czymś znacznie więcej, niż tylkolinuksową dystrybucją (a i może być czymś innym, niż linuksowądystrybucją).16 sierpnia 1993 roku Ian Murdock oficjalnie powołał do życia TheDebian Project. Genezę nazwy łatwo wyjaśnić – powstała przezpołączenie imienia jego ówczesnej dziewczyny, Debory, z jegoimieniem. Niezadowolony ze stanu, w jakim znajdowała się pierwszadystrybucja Linuksa (Softlanding Linux System), postanowił stworzyćwłasną, ulepszoną nie tylko technicznie, ale też i ideologicznie. Jakwyjaśniał w dokumencie TheDebian Manifesto, jego celem było stworzenie ostrożnie istarannie przygotowanej dystrybucji, która będzie wspierana iutrzymywana z odpowiednią troską. Wszystkoto w duchu otwartości, modularności i współpracy, przy wsparciu FreeSoftware Foundation i postawieniu na pierwszym miejscu potrzebużytkownika.[img=debian]20 lat później Debian wciąż żyjei rozwija się, pozostając prawdopodobnie jedną z dwóchnajważniejszych dystrybucji Linuksa (obok komercyjnego RHEL-a). Jestjednym z najchętniej wybieranych systemów operacyjnych na prywatne iinternetowe serwery, cieszącym się uznaniem ze względu na ogromnąstabilność i ogromne zasoby oprogramowania. Aktualne wydanie –Debian 7 wheezy (każde z wydań tego OS-a otrzymuje jako nazwę kodowąimię zabawki z filmu Toy Story;wheezy to ten gumowy pingwin w krawacie z Toy Story 2),przynosi ponad 37 tysięcy pakietów . I choć do tej pory pozycjęprzywódcy projektu zajmowało już 12 osób po ustąpieniu Murdocka w1996 roku, to przez cały ten czas społeczność Debiana pozostawaławierna ustanowionej na początku ideologii, skodyfikowanej w 1997 rokuw Umowiespołecznej Debiana.Wydając kolejne, niezwyklestabilne i dopracowane wydania systemu, społeczność Debianaumożliwiła zaistnienie ponadsetki innych linuksowych dystrybucji, korzystających z Debianajako fundamentu, na bazie którego ich twórcy mogli realizować swojepartykularne cele. Wśród nich są tak znane dystrybucje jak Ubuntu (zjego wszystkimi odmianami), Mint, MEPIS, czy KNOPPIX. Być może taliczba potomnych dystrybucji wynika po części z wysokości poprzeczki,jaką The Debian Project stawia przed ochotnikami chcącymiuczestniczyć w jego rozwoju – może być łatwiej zrobić własnądystrybucję, i realizować w niej własne pomysły, niż przejść surowyproces rekrutacyjny, niezbędny by spośród chętnych odsiaćwszystkich tych, którym bądź brakuje technicznych umiejętności, bądźzrozumienia filozofii Debiana.Choć zasady selekcjioprogramowania dla Debiana pozostają surowe – warto przypomniećchoćby spórz Mozillą o zasad wykorzystania znaków towarowych i nazw jejproduktów, w wyniku którego do repozytoriów zamiast Firefoksa,Thunderbirda, Sunbirda i Seamonkeya trafiły ich rebrandowane, w pełniwolne wersje (odpowiednio IceWeasel, IceDove, IceApe i IceOwl) –to jednak nie oznacza to, że dystrybucja ta pozostaje ślepa narzeczywistość, pełną niewolnego oprogramowania. Pakiety, którychlicencja nie pozwala na rozpowszechnianie w ramach głównegorepozytorium Debiana, utrzymywane są, kuoburzeniu Richarda Stallmana, w repozytorium non-free,inne zaś pakiety, o niekoniecznie wolnej licencji, przechowywane mogąbyć w repozytorium contrib.Najwyraźniej dla społeczności ważniejsza jest możliwość uruchamianiaDebiana wszędzie tam, gdzie chciałby to zrobić użytkownik, niż zgrozawywołana tym, że ludzie łatwo mogą dowiedzieć się oniewolnym oprogramowaniu dostępnym poprzez przeglądanie bazy danychpaczek Debiana czy teżzalecaniem przez instalator niewolnych plików firmware dlaurządzeń peryferyjnych.Na samym początku wspomniałem też, żeDebian jest już czymś innym, niż linuksową dystrybucją. To ważna,niespotykana gdzie indziej sprawa: Debian zdołał uwolnić się odsamego Linuksa. Choć oczywiście wykorzystuje w głównej gałęzirozwojowej systemu tworzone pod dyktando Linusa Torvaldsa jądro, tojednak zainteresowani mogą uruchamiać Debiana bez Linuksa. W 2011roku zaprezentowano DebianaGNU/kFreeBSD, wykorzystującego pakiety Debiana 6.0 i jądrosystemu FreeBSD. Znacznie wcześniej, bo już w 1998 roku, rozpoczętoprace nad DebianemGNU/Hurd, ale dopiero w 2013 roku pojawiła się nadająca się doczegoś więcej niż tylko eksperymentalny użytek wersja tego systemu. [img=debian2004][join][img=debian2013]Czego więc zatem można się spodziewaćza kolejne dwadzieścia lat? Na pewno Debian będzie dalej istniał.Niezależny od jakiegokolwiek komercyjnego podmiotu, niezależny odjakichkolwiek konkretnych osób, Debian jest przede wszystkim ideą iprocesem, który włącza w siebie wszystkich swoich użytkowników. Ma tooczywiście i swoje wady – w tak rozwijanej dystrybucji nikt niemoże powiedzieć wydajemy kolejnego Debiana, choćby miał po tymnastąpić potop, a otwarte spory między deweloperami bywają czasembardzo nieprzyjemne – ale na dłuższą metę widać, że ten modelsprawdza się bardzo dobrze, czyniąc z tej dystrybucji ikonę WolnegoOprogramowania (cokolwiek by o tym dziś Free Software Foundationmogło sądzić).Zatem wszystkiego najlepszego dla całejspołeczności Debiana!
Dwadzieścia lat temu Microsoft zmienił świat pierwszym Windows NT

Dwadzieścia lat temu Microsoft zmienił świat pierwszym Windows NT

Nie tak dawno obchodziliśmy 20.urodziny Slackware, a teraz mamy okazję świętować 20. urodzinyinnego bardzo ważnego dla świata IT systemu operacyjnego, o którym coprawda pamiętają dziś tylko brodaci, pomarszczeni administratorzy,ale którego „potomstwo” opanowało cały świat. W sierpniu1993 roku na rynku pojawił się pierwszy serwerowy system Microsoftu izarazem pierwszy system, w którym znalazło się jądroNT. Otrzymał nazwę Windows NT 3.1.NT 3.1 nigdy by się zapewne nie pojawiło, gdyby nie niesnaskimiędzy Microsoftem i IBM. Gdy w 1988 roku do Microsoftu przeszliludzie z firmy Digital Equipment Corp, na czele z twórcą systemu VMSDavidem Cutlerem, jeszcze zakładano, że nowy serwerowy system będziewykorzystywał wiele komponentów OS/2. Jednak w 1990 roku było jużwidać, że rynek wybiera Windows (nawet w takiej formie, jaką wówczasWindows miało – wizualnej nakładki na DOS-a), a system IBM-a macoraz większe problemy ze znalezieniem swojego miejsca. Microsoftzdecydował się wówczas iść za ciosem i przygotowywany system dlaserwerów oprzeć na własnych rozwiązaniach.[img=nt31]A były to czasy zupełnie inne niż dziś – w firmowychsieciach królował Novell NetWare (należało do niego w pewnym momencieniemal 65% rynku), pierwszy z systemów serwerowych, który wprowadziłwspółdzielenie plików (a nie tylko współdzielenie dysków) przezwszystkie podłączone stacje robocze, a w kolejnych wersjach takżewielozadaniowość, modularyzację i pierwsze rozwiązania wysokiejdostępności (łączenia serwerów NetWare w klastry). Jego jedynąsłabością był bardzo skomplikowany system uwierzytelnianiaużytkowników, zmuszający ich do oddzielnego logowania się do każdegoz serwerów. Dopiero wersja NetWare 4 (wydana notabene w tym samymroku co pierwsze Windows NT) wprowadziła rozproszony katalog sieciowykont użytkowników, grup, serwerów i stacji roboczych, pozwalającyodtworzyć całą strukturę organizacji w drzewie katalogowym icentralnie zarządzać uprawnieniami dostępu do nich. Rozwiązanie towyprzedzało wszystko, co do tej pory było znane, włącznie z modelemdomenowym Microsoftu – ale dla mniejszych firm było zbytskomplikowane.I to właśnie chyba było głównym powodem, dla którego stosunkowoprosty i względnie niedojrzały NT 3.1 tak bardzo spodobał się narynku. Pomimo wszystkich swoich możliwości, NetWare skupiało sięprzede wszystkim na współdzieleniu plików i drukarek, i to wszystkopo własnościowym protokole sieciowym Novella. Miało też ogromnezapotrzebowanie na pamięć RAM, a jeden błąd w działaniu któregoś zmodułów mógł zawiesić cały serwer. Tymczasem serwerowy systemMicrosoftu był znacznie bardziej uniwersalny, obsługiwał TCP/IP, miałmniejsze wymagania sprzętowe, a zarządzanie mniejszymi sieciami byłow nim bardzo proste.Była to przede wszystkim zasługa innowacyjnej architektury –w przeciwieństwie do innych systemów wykorzystujących mikrojądra, NT3.1 uruchamiało w trybie chronionym procesora nie tylko jądro, aleteż sterowniki i pliki wykonywalne systemu, a większość funkcjisystemu operacyjnego, w tym interfejs programowania grafiki,przeniesiono do oddzielnych podsystemów. W rezultacie, jak na tamteczasy system był bardzo stabilny. Poradzono sobie też zniestabilnością aplikacji DOS i 16-bitowego Windows, uruchamiając jew maszynie wirtualnej, pozbawionej bezpośredniego dostępu do sprzętu:teraz już jedna zawieszająca się aplikacja nie stanowiła groźby dlacałego systemu. Warto też wspomnieć o trzech charakterystycznych dla Windowstechnologiach, które zadebiutowały wraz z NT 3.1 – Rejestrze,czyli scentralizowanej bazie konfiguracji systemowej, NTFS, czylizainspirowanym przez IBM-owy HPFS i Files-11 z VMS-a systemie plików,który wprowadził do „okienek” m.in. obsługę metadanych iksięgowanie, oraz słynnym BlueScreenie, czyli ekranie wyświetlanym wmomencie poważnej awarii systemu, zawierającym m.in. zrzut pamięci iinne dane pozwalające zidentyfikować błąd.[img=nt31mm][join][img=nt31fileman]Co ciekawe, w tamtych czasach Microsoft interesował się wielomaróżnymi architekturami sprzętowymi. NT 3.1 wydane było w wersji nietylko na procesory Intela x86, ale też na MIPS, kilka miesięcypóźniej pojawiła się też wersja na maszyny z procesorami Alpha.Nigdy wcześniej, ani później nie było już tak radykalnych zmian wWindows. Rewolucje w Windows 8 są w porównaniu do NT 3.1 wręcztrywialne – ot kolejny interfejs użytkownika, a w praktyce –ulepszone Windows 7. Czy za dwadzieścia lat będziemy o nich jeszczepamiętali, nie mówiąc już o ich używaniu, tak jak do dziś korzystamyz tego, co zadebiutowało w Windows NT 3.1?