Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

Jak archiwizować dane?

Na wstępie uprzedzam: poradnik jest długi i nie zamierzam dzielić go na części, ponieważ wówczas straciłby na spójności. Mam nadzieję drogi czytelniku, że mimo to dotrwasz do samego końca.

Kopia zapasowa – rzecz wydawałoby się obligatoryjna każdego użytkownika komputera, w praktyce wykonywana jest niezwykle rzadko lub co gorsza nawet wcale. A jeśli już, to najczęściej niedbale i do tego na nośniku, którego trwałość jest co najmniej dyskusyjna. Wynika to głównie z lenistwa i braku wiedzy na temat używanych technologii.

W niniejszym poradniku przedstawię sposób organizacji danych, którego sam od lat używam przy archiwizacji, wraz z krótkim opisem nośników (a jakże - optycznych) i metody na dodatkowe zabezpieczenie ich zawartości.

„Pokaż mi swój pulpit a powiem ci kim jesteś.”

Ogólnie wiadomo jak wygląda, przechowywanie danych u typowego Kowalskiego. Najczęściej są to Moje Dokumenty w których znajduje się niebotyczny bałagan włączając w to - czy nawet szczególnie uwzględniając - Pulpit. ;) Mnóstwo losowo ponazywanych folderów, zdjęć, dokumentów, programów z obowiązkowo kilkoma kopiami, ze skrótami prowadzącymi donikąd, „pendrakowymi” malware etc.

Aby wykonać jakąś sensowną kopię takiego rozgardiaszu, trzeba go najpierw uporządkować. Oczywiście najlepiej od samego początku dbać o porządek, ale niektórzy ludzie nie potrafią go utrzymać nawet w swoim pokoju, więc... Jest wiele „szkół” jak taki porządek powinien wyglądać. Osobiście jestem zwolennikiem oddzielania prywatnych danych od systemu operacyjnego (dlatego, aby w każdej chwili, w razie np. infekcji móc bezboleśnie przywrócić obraz partycji i w kilka minut zapomnieć o problemie). W Linuksie jest to łatwe, wystarczy osobna partycja dla home, w Windows niestety nie da się oddzielić katalogu użytkownika inaczej jak dowiązaniem symbolicznym - choć biorąc pod uwagę tonę śmieci jakie ten system gromadzi, najlepszym rozwiązaniem jest całkowita rezygnacja z przechowywania tam swoich danych na rzecz innej partycji lub nawet dysku. Same dane należy dzielić nie tylko tematycznie, ale też patrząc pod kątem ich ewentualnej kompresji. Osobno filmy i muzyka, osobno programy, dokumenty, projekty graficzne 2d/3d/cad itp.

„Pakować czy nie pakować? O to jest pytanie.”

Wykonując kopię, dobrym pomysłem jest uprzednie spakowanie danych, czyli ich kompresja. Jeśli do którychś bardzo rzadko zaglądasz, to można kompresować pliki już uprzednio skompresowane (np. pliki *.mp3, *.ogg, *.jpg, *.png, *.avi, *.mkv, *.mp4, *.vob). Oczywiście wówczas już bez kompresji (która paradoksalnie w szczególnych przypadkach może wpłynąć na zwiększenie wielkości pliku)! Co więc daje użytkownikowi takie „okontenerowanie”? Przede wszystkim kontrolę integralności danych wewnątrz archiwum, zmniejszenie ilości plików do np. przesłania czy nagrania i ewentualną ochronę przed niepowołanymi osobami. Pakując pliki użytkownik może nieraz zaoszczędzić blisko 60% pierwotnego rozmiaru, a w skrajnych przypadkach gdzie powtarzalność jest duża, nawet i 90%.

Wielu niedzielnych użytkowników komputera nie pakuje plików przez obawę utraty np. na jakości, słysząc o tzw. „kompresji stratnej” i „bezstratnej”. Tak naprawdę nie ma czegoś takiego jak kompresja stratna, ponieważ nie miałaby żadnego sensu (dane byłyby uszkodzone i nie do odtworzenia). Niestety pojęcia te zdążyły się spopularyzować i często są używane np. przy zmianie formatu graficznego na inny, gorszy (np. JPEG). Nie jest to kompresja tylko zmiana sposobu zapisu, redukując zbędne w założeniach tego formatu, dane – stąd mniejszy rozmiar i gorsza jakość). A więc nie ma to nic wspólnego z tzw. pakowaniem!

Do tej roli proponuję 7-Zip w wersji 9.20 (nowsze to wciąż, jak sam autor zwraca uwagę, wersje beta, a więc rozwojowe, którym z zasady nie powinno się ufać). 7-Zip jest darmowy, włączając w to nawet użytek komercyjny. Do tego na przestrzeni wielu lat został przetestowany przez setki tysięcy użytkowników. Interfejs co prawda nie wygląda zachęcająco: sprawia wrażenie pozornie skomplikowanego i może przez to nie budzić zaufania. Mimo wszystko daje użytkownikowi sporo kontroli nad tworzonym archiwum, zaś sama aplikacja wciąż jest jedną z najlepszych w swojej klasie.

Dlaczego nie popularniejszy i dynamicznie rozwijany WinRAR? Dlatego, że nie jest darmowy, nie oferuje lepszej kompresji danych i w mojej ocenie użytkownik nie potrzebuje, informacji ze strumieni NTFS, nie potrzebuje też żadnych tzw. danych naprawczych (o to powinien dbać np. system plików lub sam użytkownik o czym więcej w dalszej części poradnika) itp. unikalnych dla tego oprogramowania funkcji.

Format archiwum jaki należy wybrać, to oczywiście 7z z metodą kompresji LZMA2 i jej poziomem ustawionym na Ultra (lub bez kompresji jeśli wiesz, że nic na niej nie zyskasz lub gdy zyskasz zbyt mało w stosunku do czasu jaki trzeba poświęcić na rozpakowanie). Daje to najlepsze rezultaty upakowania danych w większości przypadków. Wielkości słownika i słowa można zostawić domyślne (wpływają na ilość potrzebnej pamięci operacyjnej przy wypakowywaniu, nie wpływając znacząco na prędkość pakowania). Liczba wątków zależnie od ilości rdzeni jakimi dysponuje twój procesor. Jeśli potrzebujesz, możesz wybrać wielkość woluminów, czyli co ile 7-Zip ma dzielić archiwum na kolejne części (czego akurat nie polecam ponieważ w razie uszkodzenia kontenera trudniej jest odzyskać dane, nawet w archiwum nieciągłym).

Po kliknięciu w przycisk OK, rozpocznie się pakowanie. Nie zapomnij później przetestować archiwum (skrót również pod ppm w menu kontekstowym).

Niestety na Linuksie nie ma GUI do 7-Zip’a (przynajmniej oficjalnego), ale z powodzeniem można posłużyć się linią poleceń lub nawet napisać skrypt, który użytkownik wywoływałby z poziomu managera plików (np. Nautilusa, Nemo itp.).

W ostateczności można użyć File Roller, który jest bardzo ubogi, ale za to jest prosty w obsłudze i świetnie integruje się ze środowiskiem. Jeśli chcesz spakować bez kompresji, użyj formatu *.tar. Jeśli chcesz kompresować, ale zależy ci na zachowaniu np. atrybutów pliku wybierz *.tar.7z.

Poniżej przykład środowiska graficznego Cinnamon, managera plików Nemo i File Roller.

Dlaczego płyty?

Pierwsze pytanie jakie zapewne przyszło ci do głowy to dlaczego nośnik optyczny, a nie magnetyczny (HDD/SHDD) bądź flash (SHDD/SSD, pendrive’y, karty pamięci)? Przede wszystkim dlatego, że jest niewrażliwy na wstrząsy, zmoczenie, impulsy elektryczne, pola magnetyczne, a zgromadzone dane nie wymagają po pewnym czasie ponownego przepisania. Oczywiście płytę, tak jak każdy nośnik można uszkodzić mechanicznie np. złamać, wygiąć, porysować, ale jeśli szanujesz sprzęt i jesteś w stanie zabezpieczyć go przed np. małymi dziećmi, wady te tracą na znaczeniu. Zaletą może być również fakt, że raz zapisanych danych, nie zmodyfikuje np. złośliwe oprogramowanie.

Oczywiście archiwizowanie na płytach jest kosztowne, nie jest wydajne (szczególnie jeśli ktoś ma backup liczący setki GB), czasochłonne (ze względu na czas jaki trzeba poświęcić na wypalanie i przygotowanie danych), ani nawet nie powinna to być jedyna forma kopii. Jak najbardziej dobrym pomysłem jest backup na kilku nośnikach (np. dodatkowo na HDD w RAID lustrzanym), w tym jeden offsite (np. na strychu na działce czy w tzw. chmurze). Dlatego że zawsze istnieje ryzyko trafienia na wadliwy egzemplarz (np. w procesie produkcyjnym dostały się bakterie pod warstwę na której wypalane są dane), w miejscu przechowywania może wybuchnąć pożar, mogą włamać się złodzieje i wynieść cały elektroniczny dobytek etc.

A co z trwałością, czyli rzeczą chyba najbardziej kontrowersyjną? I tutaj przechodzimy do sedna. Zależnie od jakości nagrywarki, jakości nośnika i przede wszystkim jego rodzaju, zależy jak długo nie dojdzie do uszkodzenia danych. Musisz zapomnieć o CD-R, DVD-/+R (bez znaczenia czy jedno czy dwuwarstwowe, czy jednostronne czy obustronne, czy 8cm czy 12cm) i BD-R (LTH) (również bez znaczenia ilu warstwowe). Są to przestarzałe technologie oparte o barwnik organiczny, który w skrajnych przypadkach może nawet już po kilku miesiącach zacząć się utleniać, a do tego takie płyty należy chronić przed promieniowaniem UV. Można zapomnieć również o CD-RW, DVD-RW i DVD-RAM, bo pomimo stosowanej warstwy nieorganicznej wypierają je nowsze nośniki (szybsze w zapisie, o większej pojemności).

Obecnie do archiwizacji używa się BD-R (HTL), BD-RE i M-Disc (DVD+M i BD-M). Niestety nośniki Millenniaty wymagają do nagrywania nagrywarki, która wspiera ten standard - i najlepiej też do odczytania, ponieważ pomimo deklaracji o odczycie na dowolnym napędzie optycznym, nie każdy sobie z tym radzi. BD-R można za to wypalać na dowolnej nagrywarce Blu-Ray, mają też dobry stosunek cena-jakość.

Aktualnie jednymi z najlepszych (o ile nie najlepszymi), pozwolę sobie na określenie: „zwykłymi BD-R” są nośniki firmy Panasonic:

Od jakiegoś czasu można spotkać tańsze M-Disc - od różnych producentów (TRAXDATA, RiTEK/RiDATA), mimo wszystko najpewniejsze są te firmowane przez Milleniata:

A jeśli nie z trwałością, to co z dostępnością napędów zdolnych do odczytu płyt?

Czy to w ogóle ma sens skoro, jak twierdzą przeciwnicy tych technologii (i całe zastępy „chmurowych PR-owców”), za 50 lat o płytach nie tylko nikt nie będzie pamiętać, ale nie będzie nawet czym ich odczytać? Trudno mi powiedzieć czy za kilkadziesiąt lat nie będziemy już nagrywać w kryształach kwarcu, czy może społeczeństwo straci rozum i pozwoli na zastąpienie zasobów lokalnych zdalnymi, a co za tym idzie czy będziemy jeszcze używać jakichkolwiek nośników optycznych. Informatyka rozwija się zbyt dynamicznie by jednoznacznie odpowiedzieć na to pytanie, tym bardziej że stoimy na skraju wielu przełomów (porzucenie krzemu, memrystory, pierwsze procesory optyczne i kwantowe itd.). Wiem natomiast jedno: obecnie nie ma równie trwałego i odpornego nośnika co właśnie te niepozorne, okrągłe kawałki plastyku. Na dzień dzisiejszy – co warto podkreślić. Jeśli cenisz swoje dane i jesteś człowiekiem roztropnym, zastanów się nad sposobem utrwalenia ich dla przyszłych pokoleń. Jesteś przedstawicielem pierwszego z nich, który ma szansę względnie tanio zachować dane na bardzo długi czas bez konieczności monitorowania ich stanu i bez konieczności stałej migracji na kolejne nośniki.

Gdyby jednak faktycznie pewnego dnia nie dało się już odnaleźć działającego napędu i nie było możliwości ich podłączenia do przyszłych komputerów, zawsze pozostają instytuty naukowe czy nawet wyspecjalizowane firmy, które taki sprzęt opracują. Cyfrowa archeologia, nowa dziedzina która dopiero co raczkuje, ale w przyszłości na pewno przekształci się w gałąź rynku (tak jak dziś jest sporo usług odzyskiwania danych). A gdyby tak wydarzył się jakiś wielki kataklizm, który cofnąłby nas technologicznie o setki lat (np. wysokoenergetyczny podmuch solarny)? To pozostaje jeszcze mikroskop i policzenie dziurek - coś co jest w zasięgu 18-to wiecznej technologii. W najgorszym wypadku pozostawisz po sobie materiał na naszyjniki dla małpek, jaszczurek czy diabeł wie co będzie ewolucyjnym sukcesorem naszej cywilizacji.

Jeśli posiadasz wyjątkowo cenne dane, które chcesz przekazać potomkom (a przy tym bardzo zasobny portfel) możesz porwać się na GlassMasterDisc (pojemność i zgodność z DVD-R), który będzie nawet trwalszy niż tradycyjnie wytłoczona płyta CD/DVD/BD-ROM.

Wróćmy jednak na teraźniejszą Ziemię... ;)

Zabezpieczenie danych:

Skoro już wiesz na czym zrobić backup, a co należy omijać szerokim łukiem, czas na nagrywanie. Nie! Zanim zaczniesz wypalać swoje cenne dane trzeba się zastanowić nad scenariuszem ich odzyskiwania w razie uszkodzenia lub zestarzenia się nośnika. Zakładając, że będzie to jedyna kopia jaka się uchowała: ostatnia deska ratunku – a więc zakładając najgorszy scenariusz.

A. Możesz nagrać po kilka płyt zawierających to samo, dbając o to, aby dane leżały na tych samych sektorach. Niestety po za specjalistycznym licencjonowanym oprogramowaniem do przygotowywania filmów i gier na konsole, nie znam żadnej aplikacji, która oddawałaby pod kontrolę użytkownikowi ustalanie pozycji plików. Można trochę sobie pomóc wrzucając w tej samej kolejności pliki w ImgBurn lub ustawiać priorytety w Nero Burning Rom (a w każdym razie kiedyś była taka możliwość w wersji 6.x.x.x), ale nie jest to ani wygodne, ani zbyt pomocne. Podejrzeć LBA na płycie lub w obrazie można np. za pomocą IsoBuster.

Minusy tego rozwiązania są takie, że kilkakrotnie zwiększy to koszty i czas wykonywania backupu. Plusy są takie, że w razie uszkodzeń nawet wszystkich nośników, jest bardzo duże prawdopodobieństwo odzyskania danych, składając Frankensteina, czyli zastępując uszkodzone bloki z płyt, w których to miejsce nie jest uszkodzone (dlatego dobrze jest zadbać o te same LBA, ułatwia to potem pracę).

To raczej ciekawostka przyrodnicza dla paranoików, gdyż wymienionym przeze mnie nośnikom z powodzeniem można powierzyć dane na co najmniej kilkadziesiąt lat (Millenniata chwali się tysiącem, ale to oczywiście należy włożyć między PR-owe bajki).

B. Możesz zduplikować dane w obrębie tego samego nośnika (im więcej kopii tym bezpieczniej, oczywiście jeśli się zmieszczą). Zalety takie same jak powyżej, wad brak. Jest to najlepsze rozwiązanie.

C. Możesz użyć jakiegoś systemu z danymi naprawczymi:

  • albo w obrębie archiwum (np. w *.rar),

  • albo na zewnątrz (np. PAR2, na Windows można użyć QuickPar),

  • albo wszczepić w nieużywane sektory na płycie - co uważam za najrozsądniejsze rozwiązanie i tym się właśnie zajmę w dalszej części poradnika (można również równolegle zastosować rozwiązania B i C).

Do tego celu świetnie nadaje się narzędzie dvdisaster, z otwartym kodem źródłowym, dostępne na Windows i systemy uniksowe. Program pozwala na utworzenie danych korekcyjnych jako osobny plik (na podstawie obrazu lub już wypalonej płyty, co wg. mnie jest mało przydatne) lub ich dodanie do obrazu w niezajętym przez dane miejscu. Pierwszy tryb nazwany został RS01, drugi RS02, trzeci RS03 (obecny jedynie w wersji rozwojowej, od poprzedniego różni go możliwość wykorzystania kilku rdzeni procesora). Niestety autor porzucił rozwój aplikacji na najważniejszej z funkcji, czyli implementacji RS03. Na dodatek obsługa tego trybu różni się pomiędzy poszczególnymi wersjami i niekoniecznie dane utworzone na wersji np. 0.79 (devel-1) uda się wykorzystać w v0.79 (devel-3). Dlatego najlepiej używać ostatniej stabilnej wersji, czyli v0.72 (pl3).

Ze względu na znikomą popularność tego programu i zaprzestanie nad nim prac, mądrze byłoby dorzucić do kopii plik wykonywalny wraz z kodem źródłowym aby w przyszłości uniknąć jego żmudnych poszukiwań.

Tworzenie obrazu płyty:

Na początku utwórz obraz płyty. Nie ma większego znaczenia, którym programem to zrobisz (w tym konkretnym przypadku). Po prostu użyj takiego jakiego lubisz lub do jakiego się przyzwyczaiłeś. Cały proces opiszę na przykładzie faworyzowanego przeze mnie ImgBurn, ponieważ jest darmowy, lekki, łatwo zrobić z niego wersję portable (wystarczy stworzyć pusty plik ImgBurn.ini) i działa nawet na Linuksie przez Wine.

Uwaga: postaraj się aby w obrazie dla docelowego nośnika pozostało co najmniej 25% wolnego miejsca (~1GB dla DVD i ~5GB dla BD), choć im więcej tym lepiej. W przeciwnym razie dvdisaster nie będzie w stanie dodać wystarczająco dużo danych korekcyjnych aby miało to sens.

1. Po uruchomieniu programu wybierz opcję Utwórz obraz z plików/folderów.

2. Przeciągnij pliki kopii zapasowej w stosowne pole. Powinny pojawić się na liście ze ścieżkami bezwzględnymi.

3. Przejdź na zakładkę Opcje i ustaw:

  • Typ danych: MODE1/2048
    Dla DVD i BD i tak nie można wybrać MODE2, ale nawet gdyby była taka możliwość, to nie ma on sensu ponieważ im większy blok, tym mniej miejsca na dane korekcyjne (systemu plików, nie użytkownika i nie tych, które potem doda dvdisaster).
  • System plików: UDF (i wersję 2.50)
    Nie ma sensu marnować miejsca dla przestarzałych fs, tym bardziej że ISO9660 i jego rozszerzenie Joliet posiadają ograniczenie: maksymalna wielkość pliku to 2GB - dlatego właśnie wybierz sam UDF. Na Windows XP i starszych wymagane są sterowniki, w przeciwnym razie system operacyjny nie rozpozna zawartości płyty po nagraniu.
  • Jeśli w swojej kopii będziesz mieć pliki z atrybutem ukryty i/lub systemowy, zaznacz stosowne pola.
  • 3. Przejdź na zakładkę Etykiety i nazwij swoją kopię. Proponuję zawrzeć w niej datę.
    Pozostałe opcje mogą pozostać domyślne.

    4. Wybierz miejsce docelowe na obraz płyty, jego nazwę i kliknij w przycisk z ikoną Tworzenie.

    5. Jeśli wcześniej nie nadałeś etykiety, zostaniesz o nią zapytany. Wyświetli się też okno z podsumowaniem kompilacji, które zatwierdzasz klikając w ok. Po chwili ImgBurn rozpocznie proces tworzenia obrazu.

    6. Jeśli wszystko przebiegło zgodnie z planem, pojawi się komunikat: Operation Successfully Completed! (tłumaczenie nie jest kompletne).

    Dodawanie dodatkowych danych korekcyjnych:

    Pierwszy etap masz już właśnie za sobą. W wykonany obraz trzeba będzie teraz wszczepić dodatkowe dane korekcyjne za pomocą wspomnianego wcześniej dvdisaster.

    1. Po uruchomieniu programu w pierwsze wolne pole obok napędu, wpisz dokładną ścieżkę do obrazu *.iso który utworzyłeś.

    2. Kliknij w ikonkę z symbolem klucza i śrubokręta aby przejść do opcji.

    Na zakładce Image upewnij się, że rozmiar obrazu odczytywany będzie z ECC/RS02, a nie z napędu lub systemu plików. Upewnij się też, że strategia odczytu będzie Liniowa.

    Na zakładce Error Correction wybierz metodę Augmented Image (RS02) i upewnij się, że ilość sektorów dla poszczególnych nośników zgadza się z tymi z obrazka niżej. Zakładając, że w obrazie zastosowałeś mode 1, rozmiar sektora będzie mieć 2048 bajtów. Można w ten sposób wyliczyć maksymalną wielkość obrazu dla danego typu nośnika. Błędne ustawienie tych wartości spowoduje, że *.iso nie będzie dało się wypalić np. na płycie M-Disc (dvdisaster rozszerzy obraz ponad przewidywaną dla danego typu nośnika ilość sektorów).

    3. Zamknij okno z opcjami i kliknij w ikonkę Create. Rozpocznie się dodawanie danych korekcyjnych do obrazu ISO.

    4. Po zakończeniu całego procesu, kliknij w ikonkę Verify, aby sprawdzić czy obraz nie został uszkodzony, czy nadaje się do wypalenia na płycie.

    Jeśli zamiast Good Image, wyświetli się Damaged Image, oznacza to że obraz był uszkodzony (bad sektory na dysku twardym, błędnie działający program tworzący obraz itp.) lub po dodaniu danych korekcyjnych został uszkodzony (niewspierany system plików itp.).

    Wówczas trzeba prześledzić wszystkie kroki, które wykonałeś i znaleźć przyczynę uszkodzenia obrazu.

    Nagrywanie obrazu płyty:

    Podobnie jak w przypadku tworzenia obrazu, tak i tym razem nie ma większego znaczenia jaki program zostanie użyty (także w tym konkretnym przypadku). Po prostu użyj takiego jakiego lubisz lub do jakiego się przyzwyczaiłeś. Tym razem również opiszę nagrywanie płyty z obrazu w programie ImgBurn.

    1. Po uruchomieniu programu wybierz opcję Zapisz obraz na dysk.

    2. Wybierz Źródło, czyli plik obrazu klikając w ikonkę z lupą.

    3. Ustaw Prędkość zapisu mniej więcej na połowę indeksu nośnika (NIE nagrywaj najwolniej jak to możliwe!). Zwykle daje to możliwie najlepszą jakość zapisu (najmniej błędów PIE/PIF, najlepszy Jitter itd.).

    4. Upewnij się, że jest zaznaczona opcja Weryfikuj (tuż pod listą wykrytych napędów) i wciśnij przycisk odpowiedzialny za rozpoczęcie procesu nagrywania płyty.

    5. Jeśli wszystko przebiegło zgodnie z planem, pojawi się komunikat: Operation Successfully Completed!

    Kontrola i naprawianie danych:

    Jeśli boisz się o nagrane dane, okresowo monitoruj stan nośnika. Do tego celu, również możesz posłużyć się programem dvdisaster.

    1. Włóż nośnik do napędu i wybierz opcję Scan. Jeśli natrafisz na pierwsze problemy, od razu przerwij odczyt przyciskiem Stop, ponieważ nie ma sensu czekać na przeskanowanie całego nośnika skoro i tak trzeba będzie wykonać obraz tej płyty w celu naprawienia danych (o ile w ogóle to będzie możliwe).

    Na potrzeby poradnika nagrałem spreparowaną kopię na zwykłą DVD+R, po czym ją zarysowałem, tak aby za symulować problemy z odczytem sektorów i przedstawić w jaki sposób naprawić uszkodzone dane.

    2. Uzupełnij ścieżkę do obrazu w pierwszym polu, w górnej części okna programu.

    3. Przejdź do opcji i na zakładce Image, przestaw odczyt z Liniowego na Adaptacyjny.

    4. Tym razem wybierz opcję Read. Dvdisaster wykona teraz obraz ISO nośnika. Zależnie od ilości błędów odczytu i wielkości płyty, może to potrwać od kilku do kilkunastu godzin. Dużą rolę odgrywa także nagrywarka, która powinna mieć laser w jak najlepszej kondycji i dobrze radzić sobie z korekcją (czym nie mogą pochwalić się nagrywarki Slim, a tym bardziej tanie napędy firm typu krzak).

    Jeśli masz duże problemy z wykonaniem obrazu, spróbuj zaznaczyć opcję Read and analyze raw sectors i Keep uncorrectable raw sectors in the following directory (po czym wybierz lokalizację w której dvdisaster ma przechowywać te pliki). Autor programu zaleca spróbować zmienić Raw reading mode z 0x20 na 0x21, dzięki czemu na niektórych napędach osiągnie się lepsze rezultaty. Dotyczy to jednak wyłącznie płyt CD.

    Możesz też zwiększyć minimalną i maksymalną ilość prób odczytu pojedynczego sektora przez napęd, przesuwając suwaki (im wyższa wartość max, tym o tyle razy dłuższy odczyt nośnika po natrafieniu na felerny blok).

    5. Mając gotowy obraz, wybierz opcję Verify aby sprawdzić ile danych da się odzyskać i czy jest sens w ogóle naprawiać ISO. Nie zaszkodzi też trzymać kciuki mając nadzieję, że ilość dodatkowych danych korekcyjnych jest wystarczająca do naprawienia wszystkich uszkodzonych plików.

    Poniżej przykład na którym pomimo poważnych ubytków, możliwe jest naprawienie wszystkich danych:

    6. Jeśli ilość możliwych do naprawienia danych jest 100% lub wystarczająco duża aby spróbować, wybierz opcję Fix.

    Podobnie jak z wykonywaniem obrazu, proces może potrwać bardzo długo. Na końcu dvdisaster poinformuje użytkownika ile danych udało się naprawić, a ile nie. Jeśli udało się w 100%, można taki obraz wypalić na kolejnej płycie, jeśli mniej, można np. zamontować w wirtualnym napędzie, skopiować całą zawartość na np. dysk twardy i sprawdzić które pliki są całe (dlatego m.in. warto pakować dane - przy testowaniu archiwum wszelkie rozbieżności skutkują informacją o uszkodzeniu).

    To wszystko. Mam nadzieję, że nigdy nie będziesz musiał przechodzić traumy odzyskiwania danych z uszkodzonego nośnika. :)

    Przemysław "Berion" Boruc dla CDRinfo.pl i DobreProgramy.pl
    Wszelkie prawa zastrzeżone, modyfikowanie i/lub kopiowanie zabronione. 

oprogramowanie bezpieczeństwo porady

Komentarze

0 nowych
AlbatrosZippa   10 #1 16.05.2015 21:48

Do archiwizacji polecam KGB :)

Berion   13 #2 16.05.2015 21:50

@AlbatrosZippa: Ale to trwa wieki. Chociaż z drugiej strony już od dawna nie używałem być może udało się coś zoptymalizować. Czy program wciąż jest rozwijany, ma obsługę wielu rdzeni, weryfikację tego co spakował, przechowuje atrybuty i daty?

Autor edytował komentarz.
AlbatrosZippa   10 #3 16.05.2015 21:55

@Berion: Niestety nie widać że jest rozwijany. Dziś go używałem na dwurdzeniowym komputerze i archiwizował 1,3 GB ok. 190 minut

bachus   19 #4 16.05.2015 22:31

Ciekawy wpis. Ja tylko muszę poruszyć ważną kwestię: kopia bezpieczeństwa to nie archiwizacja danych (jak sugeruje tytuł).

Berion   13 #5 16.05.2015 22:37

@bachus: Z tytułem miałem problem: treść traktuje zarówno o archiwizacji jak i backupie, ale chciałem aby tytuł był względnie krótki i wabiący do kliknięcia. ;) Jeśli masz pomysł na adekwatniejszy to chętnie zmienię (chyba jeszcze da się?).

Szafirek22   9 #6 16.05.2015 23:22

Ciekawy wpis . Wiedza tu zawarta na pewno mi się przyda.

moh3r   10 #7 16.05.2015 23:30

@Berion: "junkcja" bardzo kłuje w oczy :) Poza tym jest ok.

SpeX   6 #8 16.05.2015 23:50

Czemu nie polecasz tworzenie archiwum na HDD? Oczywiście mówię, o HDD które się odłącza od PC (zewnętrzne lub wewnętrzne)?

Brakuje mi informacji o kosztach, z tego co pamiętam przy DVD/HDD/BR mamy chyba podobny koszt GB. M-diski są niestety strasznie drogie.

Biorąc, pod uwagę, fakt iż przy wejściu w BR (w tej chwili nie mam nawet czytnika dvd), mogę już zakupić jeden HDD, chyba jednak wolę gromadzić dane w hdd w szafie. Bo w sumie, jedynie wagowo wychodzi to gorzej niż BR.

Co, do drugiej części artykułu - dane naprawce. Fajny sposób, choć szkoda iż przy niektórych zastosowaniach będzie straszenie trudny do utrzymania. M.in. przez cala scena, przyzwyczaiła nas do faktu iż na 1dvd wchodzą 12 odcinków serialu. A tu trzeba zostawić ekstra 1 GB. Kto pamięta, czasy, gdy się specjalnie modyfikowało odcinki (wycinało napisy) by uzyskać 13 odcinków/dvd np Star Trek.

Pytanie, czy konteneryzacja pojedynczych danych (odcinek) ma sens. W końcu avi czy mp4 to w pewnym sensie również kontener.
Na pewno, ma to sens, przy trzymaniu danych online. Bo wtedy, nie tak łatwo nam je usuną z naszej chmury (archiwum, będzie miało inną sumę kontrolną niż plik avi).

Berion   13 #9 17.05.2015 00:20

@SpeX: W zasadzie to polecam (np. w NAS), ale tylko jako dodatkową opcję. Jest po prostu taka zasada aby kopii mieć wiele na różnych nośnikach, w tym jeden po za miejscem przechowywania reszty. Jeśli ktoś ma sporo danych, które na dodatek często ulegają aktualizacji, które często dodaje do już istniejących to regularne kopie na płytach nie mają dużego sensu. Będą potwornie drogie i pochłoną mnóstwo czasu. Skupiłem się bardziej na scenariuszu kiedy wykonujemy backup, który ma być na czarną godzinę lub który chcemy aby wytrzymał bardzo długi czas w warunkach, w których nośniki magnetyczne i flash nie wytrzymają.

HDD, nawet podłączany okazyjnie to nie najlepszy pomysł. Obecnie produkowane są awaryjne (a to mechanika siada, a to bad sektory itp.). MTB, który teraz o niczym nie świadczy. Dramat. Znam wiele przypadków kiedy dosłownie z dnia na dzień dysk albo przestał w ogóle być widoczny w BIOSie albo prędkość odczytu spadła do kilkuset KB/s. Dorzuć do tego historie z ransomeware, dziećmi, wilgocią, potykaniem się o zagięty róg dywanu przenosząc. :)) I ja korzystam z takiego rozwiązania - jest tanie. Ale okresowo też wypalam płyty.

Co do kosztów: nagrywarka to ~300zł, przytoczone BD-R (HTL) ~7zł, BD-M ~30zł. Raz na jakiś czas to nie są jakieś ogromne pieniądze.

Sens jest tylko taki aby w łatwy sposób kontrolować data rot. Bez kontenera się nie dowiesz czy jakiś bit nie uległ zmianie, co w przypadku filmów, zdjęć i muzyki możesz nie zauważyć/nie usłyszeć (chyba że będziesz przechowywał obok sumy kontrolne np. MD5, tylko czy jest wygodniejsze?). Co innego jeśli takie dane masz na nośniku z systemem plików, który przechowuje migawki (ZFS, podobno BTRFS, planowany ReFS).

@moh3r: Neologizm. :) Chyba, że to ja nie znam polskiego odpowiednika (jeśli miałyby nim być: połączenia to czytelnik raczej by się nie domyślił o co chodzi).

Autor edytował komentarz.
moh3r   10 #10 17.05.2015 00:29

@Berion: Węzeł? Trzeba było zrobić dowiązanie symboliczne i nie było by problemu :)

Berion   13 #11 17.05.2015 00:31

@moh3r: Microsoft nie byłby Microsoftem gdy nie skomplikował takiej prostej rzeczy - bo jak więc nazwiemy hard linki, jeśli junctions symlinkami?

moh3r   10 #12 17.05.2015 00:44

@Berion: "Junctions" i "directory symlinki" to "soft linki" :) Istnienie obu jednocześnie ma chyba wyłącznie podłoże historyczne. Znam tylko jedną istotną różnicę pomiędzy nimi, a jest nią ich interpretacja w udziałach sieciowych.

Autor edytował komentarz.
pocolog   11 #13 17.05.2015 00:48

Istna katorga... Nie łatwiej w konsoli wykorzystując kilka komend (tar, xz, dd, dvdisaser, growiso - ostatecznie to wystarczy tar i dd)? Poradnik byłby krótszy i łatwiejszy do zrozumienia (22 zrzuty ekranu?)

Berion   13 #14 17.05.2015 01:05

@pocolog: Nie wszystko da się oskryptować w wygodny-elastyczny sposób (chyba, że przyjmiemy stałą lokalizację na dane, ale przecież też nie zawsze chcemy pakować wszystko do jednego wora). Nie zapominajmy też, że wciąż dominującym systemem na rynku jest Windows i że zwykły użytkownik ucieka kiedy pokaże mu się czarne okienko z migającym kursorem. ;)

@moh3r: W takim razie poprawiłem na: dowiązania symboliczne. Przyznaję że tego nie widziałem, nie używam na Windows.

Autor edytował komentarz.
moh3r   10 #15 17.05.2015 01:25

@Berion: Chyba za bardzo zamieszałem wprowadzając ten wątek, więc dla jasności - "junction" i "directory symlink" to nie to samo, ale spełniają praktycznie tę samą funkcję.

https://en.wikipedia.org/wiki/NTFS_reparse_point

Autor edytował komentarz.
  #16 17.05.2015 01:36

Po pierwsze to zasada trzech kopii. Na trzech różnych nośnikach. A jak ... spakowane, specjalny program etc... to już dowolny wybór użytkownika. Tak od zawsze mnie uczyli....

  #17 17.05.2015 02:02

A co z problemem nośników optycznych, które po pewnym czasie są nieodczytywalne? Osobiście natknąłem się na ten problem wielokrotnie (2 lata nośnik na szpuli w szufladzie i dane nie do odzyskania). HDD w zewnętrznej obudowie póki co się trzyma a rzucam nim po podłodze od kilku lat.

lynx44   10 #18 17.05.2015 04:14

@AlbatrosZippa: Jeśli już używać tak mocnej kompresji to zamiast starego KGB który jest oparty na formacie PAQ6 lepiej użyć Peazip i pakować do PAQ8, a najlepiej ZPAQ bo postarali się o kompatybilność wsteczną. Ogólnie kompresja jest szybsza, mocniejsza, no i formaty PAQ są otwarto źródłowe i multiplatformowe, a KGB tylko na Windows i x86. Dodatkowo ZPAQ używa wielu rdzeni i zapisuje algorytm użyty do pakowania w pliku przez co łatwiej to potem rozpakować po wybuchu słonecznym czy coś :P.

Co do tematu, jakiś czas temu zastanawiałem się nad kupnem kaset/kartridży magnetycznych (takich ponad 1TB pojemności) na amazonie razem z czytnikiem. Przy większych zbiorach danych może być bardziej opłacalne, z drugiej strony mniejsza popularność może stanowić problem w przyszłości. Ale można rozważyć też tą opcję.

A jeśli chodzi o pliki użytkownika w Windows to lokalizację folderów Moje Dokumenty/Muzyka/Obrazy/Wideo da się zmienić w ich właściwościach. A domyślne położenie całego profilu użytkownika da się ustawić w rejestrze modyfikując jeden klucz, tak samo z istniejącymi kontami, szkoda że nie da się tego zrobić podczas instalacji, ale zmiana tego zajmuje tylko chwilę.

Autor edytował komentarz.
Ostatni Mohikanin   25 #19 17.05.2015 07:48

@Berion - "prawdziwa" archiwizacja (czyli taka, o której piszesz) nie jest dla zwykłych szaraczków. No bo ile i jakie dane ma taki zwykły szaraczek? To zazwyczaj zdjęcia (wcale nie zawsze aż tak ważne, by można było się przejmować ich utratą) i maksymalnie kilkaset innych dokumentów. I tu znów stanę po stronie „chmurowych PR-owców”. Wrzucenie tych zdjęć i dokumentów (które de facto coraz częściej przyjmują postać e-dokumentów, a jeśli nie, to można ja na takowe zamienić) do "chmury" jest prostsze, szybsze i wygodniejsze. A że Internet jest teraz praktycznie wszędzie, zawsze możemy je mieć pod ręką.

Autor edytował komentarz.
Ostatni Mohikanin   25 #20 17.05.2015 07:54

@lynx44: "A jeśli chodzi o pliki użytkownika w Windows to lokalizację folderów Moje Dokumenty/Muzyka/Obrazy/Wideo da się zmienić w ich właściwościach."
Wczoraj pewnemu panu robiłem drobne porządki w komputerze. Systemowe foldery były poprzenoszone w takie miejsca, że nigdy bym nie wpadł na pomysł, by je tam umieścić :) Najprostszym sposobem na powrót do normalności było utworzenie nowego konta użytkownika.

Axles   16 #21 17.05.2015 10:15

Długie, ale bardzo dobrze się czytało - idę po nastepną kawę :P taki żarcik.
Nie mam nagrywarki BluRay i raczej nie zamierzam kupić, ale zastanawia mnie czy miałoby jakikolwiek sens tworzenie takich obrazów ISO z danymi 'korekcyjnymi' w tym dvdisaster i zapisywanie ich na hdd, których trochę mam i leżą w szafce?

ludendorf   5 #22 17.05.2015 11:12

Co to za kompozycja do windowsa? Strasznie ładnie wyglądają paski postępu i ramki okienek :)

Berion   13 #23 17.05.2015 11:43

@lynx44: 7-Zipa używam od lat, w tej wersji ufam mu, pakowałem przeróżne rzeczy, często w ogromnych ilościach, nigdy mnie nie zawiódł i dlatego znalazł się w opisie jako polecany. Ale sprawdzę też kiedyś PeaZip.

@Ostatni Mohikanin: Odzierając się przy tym z prywatności. Po za tym "chmura" nie jest pewnym "nośnikiem" - zależna jest od jakości infrastruktury usługodawcy i jego widzimisię, a nawet klimatu politycznego (przykład Megaupload czy znikania kiedyś *.iso w SkyDrive). Jako główna kopia to kiepski pomysł. Jestem też przeciwnikiem takich hostingów z innej przyczyny: ich znacząca popularyzacja przyczyni się do podwyższenia cen profesjonalnych urządzeń do robienia lokalnych kopii w domu, a niech będą to nawet i wspomniane nagrywarki+płyty, ;) które już schodzą z rynku dla kowalskich.

@ludendorf: Jest jeszcze bliźniaczy Blend 2.0, też niezły.
http://zainadeel.deviantart.com/art/Shine-2-0-for-Windows-7-172671190

@Axles: Niewielki, na HDD lepiej po prostu zduplikować zawartość płyt, ewentualnie utworzyć tylko same ECC do nich (RS01).

Autor edytował komentarz.
formoza   3 #24 17.05.2015 11:58

Co to za styl okien Windows Aero ? :)

Berion   13 #25 17.05.2015 12:04

@formoza: Komentarz wyżej masz linka. :p "Shine 2.0" użytkownika Zainadeel na deviantart.

aa.bb   6 #26 17.05.2015 12:05

„Informatyka rozwija się zbyt dynamicznie by jednoznacznie odpowiedzieć na to pytanie” — wspaniałe poczucie humoru!

Berion   13 #27 17.05.2015 12:14

Wyrwałeś to z kontekstu. ;]

t0ken   8 #28 17.05.2015 12:31

Artykuł przydatny, tylko trochę zastanawia mnie jego grupa docelowa? Na domowe potrzeby to jednak za dużo kombinowania. Dla niedużych firm, które mają gdzieś bezpieczeństwo - wynajęty informatyk nie będzie się tak "bawił", zasugeruje kopię na podłączonym na stałe dysku zewnętrznym usb (lol), ewentualnie bliżej nie określoną chmurę. Dla profesjonalistów to za mało. Przeczytałem całość bardziej jako ciekawostkę - ciekawą ciekawostkę!

kopratko   6 #29 17.05.2015 12:43

U mnie czasy archiwizacji na nośnikach typu CD, już dawno przeszły do lamusa. Szczególnie ze względu na potrzebny czas do archiwizacji tego typu.
W chwili obecnej mam 2 miejsca przechowywania ważnych danych:
1) 2 dyski zewnętrzne HDD oraz oczywiście oddzielna partycja na laptopie
2) OneDrive.

Powoli zaczynam dochodzić do wniosku, że mojego OD trzeba będzie wzbogacić o dodatkowe (płatne) GB. Pojemność 33GB jednak powoli się wyczerpuje.

remarc   6 #30 17.05.2015 15:22

Fajny wpis, dobrze się czytało ;)
@Berion, a w kwestii wyboru nagrywarki BR poleciłbyś coś ciekawego/dobrego/sprawdzonego?

moh3r   10 #31 17.05.2015 15:56

@remarc: @Berion ma chyba LG BH16NS40, którą również mogę polecić. Alternatywą jest Pioneer BDR-209DBK/EBK.

EDIT: Dobrze pamiętałem, widać to nawet na screenach :)

Autor edytował komentarz.
sr57be45   5 #32 17.05.2015 16:02

@Berion: Chyba nano zip - był kiedyś / lub może jeszcze jest w czołówce kompresji z obsługą graficzną w oknie bez konsoli, był lepszy od 7zip a szybszy na pewno od KGB ;)

Klasycznie to oprócz nagrywarki potrzebny jeszcze czytnik BR.

Al@AlbatrosZippa KGB, przypomina mi to czasy PIII 1000Mhz chyba komputer Świat polecał ten program ;)

Autor edytował komentarz.
Rower1985   6 #33 17.05.2015 18:30

Dla zwykłego użytkownika wystarczą 2 zewnętrze dyski twarde. Nie ma co kombinować.

  #34 17.05.2015 18:49

W jakim celu wszystkie pliki wrzucać do jednego archiwum 7zip skoro może ulec uszkodzeniu jako całościowy plik? Lepiej bezpośrednio nagrać pliki na płytę, jak się jeden uszkodzi to reszta dalej będzie do odczytu.

gowain   18 #35 17.05.2015 19:11

Jak dla mnie zdecydowanie NAS z RAID 1 i wyłączanie sprzętu podczas burzy - powinno spokojnie wystarczyć :)

Rower1985   6 #36 17.05.2015 19:20

@gowain: Wydać kilka stówek na NASa, tylko po to, aby zbakupować kilka zdjęć z imprezki, parę MP3, filmów i 3 podań w wordzie mija się z celem. Nie popadajmy w paranoje, że "szarak" musi mieć szafę czy małą serwerownie w pokoju, żeby zrobić backup.

moh3r   10 #37 17.05.2015 19:25

@gowain: Ryzykowna strategia.

gowain   18 #38 17.05.2015 19:38

@Rower1985: Wydać kilka stówek na porządną nagrywarkę Bluray, potem po 30zł za każdą płytę... Podaję wg mnie wygodniejsze rozwiązanie do tego co zaproponował Berion. Mało tego, dzięki NASowi możemy mieć serwer ftp, dlna i wiele innych przydatnych rzeczy. Możemy też zautomatyzować proces, co w przypadku płyt CD/DVD/BR - nie jest możliwe.

Autor edytował komentarz.
moh3r   10 #39 17.05.2015 19:51

@gowain: Naprawdę nie dostrzegasz potencjalnych problemów wynikających z polegania na ciągle włączonym urządzeniu? Berion opisywał strategię archiwizacji danych "na zawsze" i w tym przypadku wybór nośnika jest uzasadniony.

Berion   13 #40 17.05.2015 19:57

@sr57be45: Opis programu na stronie dewelopera nie zachęca: "NanoZip is an experimental file archiver software." A do tego w ściągniętym archiwum nie ma GUI, jest sam CLI.

@macentos: "A co z problemem nośników optycznych, które po pewnym czasie są nieodczytywalne?"

Ten problem dotyczy nośników organicznych. Nie przeczytałeś uważnie. Na uszkodzenia mechaniczne (mimo wszystko BD powleczone są dość twardym plastykiem, szkoda że nie też na górnej stronie jak DVD, to trudno je niechcący zarysować) i przypadki wad produkcyjnych zabezpieczasz dvdisasterem.

"HDD w zewnętrznej obudowie póki co się trzyma a rzucam nim po podłodze od kilku lat."

Wątpię w to. Sprawdzałeś jego S.M.A.R.T? :)

@Rower1985: Zależy co rozumiesz poprzez zwykły użytkownik. Ja znam wielu ZU, których cyfrowe zbiory nie ograniczają się do "kilku zdjęć z imprezek".

@lynx44: PeaZip nie pozwala przetestować utworzonych archiwów i jak dla mnie to spora wada. O wiele łatwiej jest zaznaczyć np. kilka plików i z ppm wybrać testuj niż każde z osobna otwierać i rozpakowywać. Na dodatek, zewnętrzne programy których używa są w wersjach beta (a przynajmniej wersja z portableapps, v5.6.0). Pozostanę jednak przy 7-Zip.

@remarc: Nagrywarkę mam tę co na screenach. Ale czy mogę polecić to ciężko mi powiedzieć. Bardzo rzadko wypalam płyty, na dodatek LG nie zwracają błędów więc do testów jakości wypalenia trzeba używać innych. Póki co jestem zadowolony, ale nie sprawdzałem ilości/progów błędów, nawet nie sądzę aby miało to duże znaczenie dla BD-R HTL/BD-M. Obsługa BD M-Disc doszła w fw 1.03, ale wspomniany pionek też już ma (też trzeba zaktualizować fw).
http://www.mdisc.com/m-ready/
http://forum.cdrinfo.pl/f107/jaka-kupic-nagrywarke-blu-ray-2015r-94148/

Autor edytował komentarz.
formoza   3 #41 17.05.2015 20:09

@Berion: Dziękuję :) nie czytałem wszystkich kometarzy :p

gowain   18 #42 17.05.2015 22:20

@moh3r: Widzę więcej korzyści niż potencjalnych problemów. Robiłem backupy na płytach DVD przez jakieś 5 lat (skończyłem 2 lata temu). Mam ich ponad 50szt. Przeszukiwanie, przerzucanie płyt to koszmar i nie, w mojej branży nie wiele da katalogowanie zawartości (a tak robiłem na początku), dlatego, że projekty się zmieniają, coś klient chce dorzucić i kończy się na tym, że jeden projekt, poprawiany/zmieniany/aktualizowany przez np. 2 lata jest na 3 płytach DVD. Nagrywać za każdym razem wszystko od nowa, czy może tylko poprawki? A jak projekt zajmuje więcej niż płyta? Przerabiałem to wiele razy. Teraz mam 2 niezależne NASy, gdzie backupy się robią automatycznie, a do tego dodatkowo trzeci backup leci na inny dysk, wewnętrzny w moim PC.

moh3r   10 #43 17.05.2015 22:44

@gowain: Nie twierdzę, że backup na płytach sprawdzi się w każdej sytuacji, ale do archiwizacji danych, które się nie zmieniają (albo zmieniają bardzo rzadko) jest IMHO lepszy niż dysk (szczególnie działający non-stop). W dodatku BD-R jest wystarczająco pojemny, żeby nie wynikały z tego większe trudności.

Dyski (konsumenckie) nie stają się bardziej niezawodne, wręcz przeciwnie, pojemności rosną, a parametry takie jak URE potrafią być gorsze niż kilka lat temu. Nawet mirror Ci niewiele pomoże, jeśli przy odbudowie macierzy dysk zacznie sypać błędami.

Backup offline na dysku jest pewnym kompromisem, ale nie odważyłbym się trzymać danych wyłącznie na stale podłączonych dyskach.

Taśmy magnetyczne i nieorganiczne nośniki optyczne to najpewniejsze szeroko dostępne technologie archiwizacji.

PS Jak często wykonujesz "data scrubbing" i/lub długi test SMART-a na tych NAS-ach? Jeśli tego nie robisz, to dane mogą być uszkodzone, a ty dowiesz się o tym dopiero próbując je odczytać.

Autor edytował komentarz.
Trebron   7 #44 18.05.2015 01:14

Backupowanie na płytach jest fajne jak ma się do zbackupowania parę GB danych. Potem to się robi nieciekawe i żmudnie. Przy dzisiejszych cenach lepiej kupić 2 dyski zewnętrzne HDD po 4TB (najlepsza opłacalność), tak by jeden był kopią drugiego. Ważne, by trzymać je w dwóch różnych lokalizacjach (to ochroni przed fizycznym zniszczeniem, pożarem czy atakiem kosmitów). Prawdopodobieństwo, że oba padną na raz jest mniejsze niż to że padnie płyta :). Do tego należy backupy sprawdzać, czy coś się da z niego odtworzyć, np.: co 3 miesiące. Korekcje błędów, parzystości i inne cuda to imho w dzisiejszych czasach przerost formy nad treścią, lepiej posiadać dwa fizyczne backupy tych samych danych.

gowain   18 #45 18.05.2015 01:24

@moh3r: Rozszerzony SMART leci automatycznie raz w miesiącu, koło 3-4 w nocy - tak jest ustawiony wg harmonogramu. Dyski są z WD, z serii RED - więc teoretycznie powinny sprawować się lepiej i dłużej w NASach :)

Co do płyt - w nowych laptopach, macbookach, ultrabookach już jest problem z odtwarzaczem, a co będzie za 10 lat? Wiem, zawsze można się zaopatrzyć w zewnętrzny napęd, ale jakoś jestem bardziej do dysków przekonany. Oczywiście - każdemu wg potrzeb. Dla kogoś zdecydowanie lepsze mogą być płyty.

Mam sporo znajomych zawodowych fotografów - każdy z nich zmaga się z problemem archiwizacji zdjęć, większość przekonuje się do NASów, bo ilość płyt jaką zużywali jest zatrważająca ;)

Berion   13 #46 18.05.2015 01:31

@Trebron: "Prawdopodobieństwo, że oba padną na raz jest mniejsze niż to że padnie płyta".

Dla nośników nieorganicznych nie.

"Backupowanie na płytach jest fajne jak ma się do zbackupowania parę GB danych. Potem to się robi nieciekawe i żmudnie."

Zamykam się póki co w 40GB. Jest żmudne, nawet dla kilku, ale coś za coś. Oczywiście gdybym miał sporo danych, które często ulegają zmianom to takie kopie wykonywałbym bardzo rzadko - rzadziej niż rok/pół jak obecnie. ;) Podkreślam też, że nie może to być jedyna forma kopii i że nie sprawdza się w każdym scenariuszu. Wszystko jest w tekście.


@anonim: "W jakim celu wszystkie pliki wrzucać do jednego archiwum 7zip skoro może ulec uszkodzeniu jako całościowy plik? Lepiej bezpośrednio nagrać pliki na płytę, jak się jeden uszkodzi to reszta dalej będzie do odczytu."

Odpowiedź jest w poradniku. Choć nigdzie nie napisałem, że wszystko należy wrzucać do jednego dużego mega uber archiwum (na dodatek, wówczas cała przeprawa z dvdisasterem traci sens).


@gowain: "Co do płyt - w nowych laptopach, macbookach, ultrabookach już jest problem z odtwarzaczem, a co będzie za 10 lat? Wiem, zawsze można się zaopatrzyć w zewnętrzny napęd, ale jakoś jestem bardziej do dysków przekonany."

Slimy szuflady/szczelinowe i na usb - i tak były kiepskiej jakości, więc to nawet zaleta że laptopy ich już nie mają. Ja nawet mając w budzie dużo miejsca wolę trzymać nagrywarkę 5.25 na zewnątrz. Wyczekuję USB 3.1 i chińczyków, którzy zrobią kontroler na kablu. Odpadnie mi wtedy mordowanie się z wyprowadzaniem SATA (nie mam power over SATA u siebie), odpadają wtedy też toporne kieszenie z wentylatorami, zasilaczem i całym tym ustrojstwem i jeszcze toporniejsze "kontrolery pająki" na USB 2.0/3.0.

Autor edytował komentarz.
gowain   18 #47 18.05.2015 09:00

@Berion: Pisząc o braku napędów w nowych laptopach bardziej myślałem o funkcji odtwarzania, nie powierzyłbym laptopowej nagrywarce nagrywania backupów. Już kiedyś tak robiłem z DVD i skończyło się fatalnie. Nagrywarka w laptopie nagrywała, potem zawsze przechodziła pełną weryfikację, a następnie 100% płyt nie było odczytywanych na każdym innym urządzeniu :) Ale to bardzo stare czasy były.

januszek   18 #48 18.05.2015 20:12

No to byłoby fajne, przy obecnym poziomie cen, gdyby na plycie miescilo sie 250GB ;)

Berion   13 #49 18.05.2015 20:58

@januszek: Sony planuje wprowadzić niedługo Archival Disc, akurat trafiłeś z pojemnością. Pytanie tylko ile w tym marketingu, a ile archival skoro to będą wielowarstwowe BD (czyli zaprzeczenie tego słowa). ;)

Od wielu lat słyszy się o HVD, czyli nośnikach holograficznych zdolnych pomieścić do 2TB. Nie idzie im jednak z prędkością zapisu.

Axles   16 #50 19.05.2015 08:01

Tu nie ma co dyskutować, zapis na płytach jest najpewniejszy i jak to już zostało napisane, w ostateczności zawsze pozostaje policzenie dziurek na powierzchni płyty :)
A tu taka ciekawostka o kapsule czasu co najważniejsze dane ludzkości zostały powierzone właśnie szklanej płycie DVD: http://pl.wikipedia.org/wiki/KEO

januszek   18 #51 19.05.2015 09:59

Wszystko fajnie ale są już firmy, które oferują chmurowe archiwa bez limitu danych za mniej niż 10 usd/mc.

pocolog   11 #52 19.05.2015 10:21

@januszek: Przecież temat traktuje o trwałym przechowywaniu danych. To duży komfort kiedy nie musisz się zastanawiać czy opłaciłeś rachunek, czy firma nie popadła w problemy finansowe i nie zniknie, czy władze danego kraju nie doszukają się przekrętów finansowych i nie zarekwirują serwerów, jakiś haker nie zrobi psikusa, zabraknie Ci dostępu do internetu z jakiegoś powodu, będziesz potrzebował szybkiego dostępu do danych a ich łącza nie przepuszczą takiego ruchu czy tysiąc innych powodów ;)

  #53 19.05.2015 11:18

@Berion: PR-owe bajki?

Berion   13 #54 19.05.2015 11:24

@Anonim (niezalogowany): Tak uważam.

januszek   18 #55 19.05.2015 12:07

@pocolog: Z moich doświadczeń wynika, że częściej niż wymienione przez Ciebie komfortowe niezastanawianie się nad opłaceniem rachunku, problemami finansowymi firm hostingowej i telekomunikacyjnej oraz problemami prawnymi dyskomfort wywoływały u mnie: awaria nośnika, zgubienie nośnika, awaria napędu i czasochłonność - samej archiwizacji oraz potem przeszukiwania setek płyt aby odnaleźć jakieś zarchiwizowane dane.

Berion   13 #56 19.05.2015 12:14

@januszek: A nie działo się tak dlatego, że Waść jesteś bałaganiarz i nagrywałeś na byle czym? ;) Po za tym, jak już wielokrotnie wspominałem, płyty nie nadają się do kopii bezpieczeństwa danych które regularnie ulegają zmianom itp. To jest forma kopii na dłuższy okres i nikt też nie twierdzi że jedyna.

januszek   18 #57 19.05.2015 12:36

@Berion: Ja tylko mówię, że to jest rozwinięcie koncepcji archiwów na dyskietkach: najpierw miałem pudełko na dyskietki 5,25" 360KB, potem migrowałem na 1,2MB, potem na CD-R, potem na DVD-R, potem na DVD-RAM... I teraz mówię STOP. Koniec temu szaleństwu bo to strata czasu tylko.

adi0922   11 #58 19.05.2015 21:39

Fajnie się czytało i powiem, że jeszcze nigdy w życiu nie robiłem kopii, na szczęście na razie nic się nie stało i niech tak zostanie xD Ale chyba zacznę robić :P

Berion   13 #59 20.05.2015 18:03

@adi0922: Znam wiele takich osób, podobnie jak wiele takich, które od niedawna post factum zaczęły. :D

gowain   18 #60 20.05.2015 18:08

@adi0922: Jak to mówią, ludzie dzielą się na tych co robią kopie zapasowe i na tych co będą robić ;)

  #61 21.05.2015 10:21

@lynx44: Oczywiście, że da się zmienić lokalizację kont już przy instalacji. Każdy system Windows od XP to ma.

moh3r   10 #62 21.05.2015 11:25

@gowain: A tych co robią, na tych co je testują i na tych, którzy będą testować :)

gowain   18 #63 21.05.2015 12:06

@moh3r: Sam backup to już połowa sukcesu ;) Ostatnio byłem w firmie, z polecenia znajomych, bo "coś im zaszyfrowało pliki i chce okupu" :P Przeraziłem się jak zobaczyłem GŁÓWNY komputer w firmie, służący wystawiania faktury, do maili, do korespondencji z urzędami, do robienia przelewów... pełno śmieciowych toolbarów (ze 4 naliczyłem), brak antywirusa, wyłączone aktualizacje XP, wyłączona zapora - no i oczywiście brak jakikolwiek backupów. Płacz i zgrzytanie zębów, że ważne dokumenty poszły się paść. Takich firm jest pewnie w Polsce dziesiątki tysięcy...

Berion   13 #64 21.05.2015 18:53

@Marqus123 (niezalogowany): Ale chyba nie w GUI. Albo ślepy jestem.

@gowain: I obowiązkowo na piracie! :D

Autor edytował komentarz.
walpi   4 #65 21.05.2015 21:45

Mój sposób na przechowywanie prywatnych zdjęć i filmów jest taki: główny komputer + kopia lustrzana na dysk zewnętrzny raz na tydzień/dwa (w zależności ile i jak ważnych rzeczy przybędzie) + roczna lustrzana kopia na dysk, który jest poza domem.
Ale ostatnio ciągle po głowie chodzą mi BD-R. Ostatnio udało mi się znaleźć na płycie CD filmiki z przed 14 lat, które przy jakiś porządkach zniknęły z moich archiwów i to zniknięcie powieliłem na pozostałych dyskach.

sr57be45   5 #66 24.05.2015 21:23

@Berion:
The latest NanoZip (2011) for 32-bit Windows, includes
graphical user interface and command line interface. The other
versions include only the command line interfaces.

Choć kiedyś najintesywniej kompresowałem chyba Winrarem ale gdy dysk miał 4Gb - 10 GB. Dziś kopia częściowa - kolejny dysk w komputerze zawiera kopie poprzedniego ;)

Berion   13 #67 25.05.2015 01:03

@sr57be45: Też to czytałem, ale jak pobierzesz wersję dla Windows to jest tylko CLI.Albo jestem ślepy. ;>

Autor edytował komentarz.
  #68 26.05.2015 07:36

W pracy co dziennnie po 23, dane archiwizowane są starą sprawdzona metodą
tar -cjps /dev/nst0

Berion   13 #69 26.05.2015 13:36

@ff (niezalogowany): Ale kto do domu kupi taśmę? Już pomijając, że ta po jakimś czasie zaczyna się kleić. ;)

Axles   16 #70 28.05.2015 07:21

Mam jeszcze pytanie odnośnie tych "nie organicznych" nośników o których pisałeś, w jaki sposób je rozpoznać, czymś szczególnym się wyróżniają?
Mam przed sobą np. DVD+R TDK której płyty uważałem do tej pory za dobre nośniki, no ale właśnie czy właściwie?

Autor edytował komentarz.
Berion   13 #71 28.05.2015 12:15

@Axles: Wszystkie DVD-/+R są organiczne (za wyjątkiem DVD+R M-Disc, ale ja w artykule opisuje je jako DVD+M, ponieważ w pierwszych materiałach promocyjnych, Milleniata i LG właśnie tak określały te nośniki - i było to czytelne. Obecnie stosują oznaczenie po prostu DVD M-DISC lub właśnie DVD+R M-DISC).

Po technologii rozpoznasz, czyli nazwie nośnika. Nieorganiczne są jak pisałem: DVD+M (czyli DVD M-Disc), BD-M (czyli BD M-Disc) i BD-R HTL (koniecznie zwrócić uwagę na ten dopisek opakowaniu, LTH są organiczne i zwykle bardzo niskiej jakości). Z wielokrotnego zapisu wszystkie RW/RE i DVD-RAM (ale pierwsze dwa nadają się zwykle do zapisania raz... a ostatni jest potwornie wolny jak na obecne czasy). Można też poznać po kolorze. :) Wszystkie M-Disc są ciemno szare (ale jaśniejsze niż RW), a BD-R HTL miedziane. DVD-RAM nie sposób z niczym pomylić bo mają znaczniki (dobrze to widać na zdjęciu we wpisie na moim blogu o kapsule czasu).

Twój TDK jest nietrwały, po kilku latach (nieraz mogą to być nawet miesiące, ale może też być kilkanaście lat - reguły nie ma, wiele zależy od jakości) coś z niego wyparuje. ;]

Autor edytował komentarz.
Axles   16 #72 28.05.2015 12:32

@Berion: mhm dzięki, poszperałem sam i znalazłem, że można i po cenie zweryfikować które to DVD-M bo za 3 sztuki nawet 50zł trzeba zapłacić, głównie z Traxdata i Verbatim znalazłem.

Autor edytował komentarz.
Berion   13 #73 28.05.2015 13:24

@Axles: M-Disc są drogie, ale i tak ich nigdzie nie kupisz inaczej jak na zamówienie, do tego potrzebujesz jeszcze nagrywarki zdolnej je wypalić. Ja używam BD-R HTL, ale zamierzam zrobić prawdziwą kapsułę czasu z rodziną (drzewa genealogiczne, zdjęcia, krótkie filmiki) i gdzieś schować. Więc padnie raczej na BD-M. Zastanawiałem się nad GMD, ale pojemność DVD to jednak trochę wiąże ręce.

sr57be45   5 #74 11.06.2015 23:27

@Berion: http://i.imgur.com/Zwo5gVZ.png?1 nie masz nanozip.exe ?

margolka1986   8 #75 11.06.2015 23:40

Dopóki, któregoś "pięknego" dnia człowiek nie straci wielu "przydasiów" spędzanie czasu na tworzeniu kopii zapasowych wydaje się być stratą czasu, którego nieustannie nam brakuje - jednak gdy dotknie nas utrata czegoś ważnego - wiemy już, że było warto.

dużo przydatnych informacji :)

Berion   13 #76 12.06.2015 10:29

@sr57be45: A widzisz, nie sprawdziłem paczki 32 bitowej. W 64 nie ma GUI. ;p

sr57be45   5 #77 17.06.2015 11:57

@Berion:
Ale to i tak ciekawostka przyrodnicza, kiedyś można było zyskać parę MB aby zmieścić się w 10/20MB załącznika pocztowego, Tylko potem komentarz od znajomych co tak długo się "exe" rozpakowuje ;] - za brakło pamięci i swap pewnie dramatycznie spowalniał proces.

rob006   6 #78 06.07.2015 18:38

Pojęcie kompresji stratnej jak najbardziej istnieje - jest to fachowy i powszechnie wykorzystywane termin, więc nie wiem skąd wziąłeś swoje rewelacje. :D
Poza tym sam dołączę się do tych, którzy "wyrośli" z robienia backupów na płytach. W dłuższej perspektywie jest to strasznie pracochłonne i mało praktyczne rozwiązanie. Tak naprawdę największą rewolucję w archiwizacji danych zrobiło u mnie... wywalenie większości z nich. Po pozbyciu się danych, których mi po prostu nie szkoda, nagle ilość danych do archiwizacji zmniejszyła się o jakieś 90%. Poza zdjęciami trzymanymi na NASie i Flickr zostało praktycznie kilka GB, które na bieżąco backupuję na FTP z wykorzystaniem duplicity - koszt to jakieś kilkanaście złotych rocznie, a mam automatyczną, przyrostową i szyfrowaną kopię swoich danych w innej lokalizacji geograficznej.

Berion   13 #79 07.07.2015 12:10

@rob006: Nie istnieje - po prostu się upowszechnił. Nie da się czegoś skompresować stratnie. ;)

rob006   6 #80 07.07.2015 13:24

@Berion: Da się. Na tym polega kompresja stratna, że zostawiamy tylko informacje dla nas istotne, a pozbywamy się tych niepotrzebnych lub mało ważnych. Jeśli masz wątpliwości, to poczytaj sobie chociażby wiki, a jak będziesz uparty to publikacje naukowe albo specyfikacje. Chyba że wolisz żyć w świecie wymyślonych przez siebie definicji, ale to odradzam, naprawdę ciężko się później dogadać z resztą świata. :P

Berion   13 #81 07.07.2015 15:00

@rob006: No właśnie nie da się... kompresja to w dużym uproszczeniu redukcja tych samych bloków danych do postaci prostszej. Gdyby była stratna to po dekompresji dane pierwotne nie byłyby identyczne z wynikowymi. Czyli bez sensu.

Pojęcie "kompresji stratnej" nie opisuje kompresji. Z matematyką się nie da dyskutować... To, że to określenie się przyjęło i jest często używane, nie oznacza że poprawnie. W Unii Europejskiej ślimak jest dla urzędników od kilku lat rybą. No i co? I nic, wszyscy wiedzą że nie jest i nie będzie.

Autor edytował komentarz.
rob006   6 #82 07.07.2015 21:33

@Berion: Równie dobrze mógłbyś stwierdzić, że nie istnieje coś takiego jak port USB - w końcu port to książkowo miejsce do którego wpływają statki, czyli nijak mające się do dziury w komputerze. Z tą (kolejną) techniczną i powszechnie przyjętą definicją też będziesz walczył, bo znalazłeś w niej jedno słowo, które po wyrwaniu z kontekstu przestaje do tej definicji pasować? Bo jeśli tak to czeka cię dużo pracy, w dodatku bezsensownej - to całkiem powszechna praktyka że nazwy buduje się z kilku członów i nie możesz sobie beztrosko odrzucać niektórych z nich i stwierdzać że w dziedzinie X ta nazwa ma inna definicję. Gdyby "stratna kompresja" znaczyła to samo co "kompresja", nikt nie używałby nadmiarowego słowa "stratna".

Berion   13 #83 08.07.2015 00:09

Dlatego, że ta jest akurat szkodliwa i to właśnie dlatego o niej wspomniałem w poradniku. Przeciętny Kowalski nie rozumie co jest "kompresją stratną" a co jest kompresją.

Być może, ludzie z aspergerem mają różne dziwne hobby. ;]

Autor edytował komentarz.
rob006   6 #84 04.08.2015 22:29

@Berion: Przeciętny Kowalski przeczyta twój tekst, zacznie powtarzać twoje rewelacje o stratnej nie-kompresji i już kompletnie z nikim nie będzie mógł się dogadać, bo cały świat używa pojęcia stratna kompresja i nie przejmuje się gadaniem słownikowych purystów, którzy mówią, że kompresja nie może być stratna :D. Ergo, to twój tekst jest szkodliwy, sama definicja jest dobra tak długo, jak jest powszechni przyjęta i akceptowana.

Berion   13 #85 05.08.2015 13:24

@rob006: To tak jakbyś napisał, że "cały świat nazywa niemieckie obozy koncentracyjne na terenie Polski, polskimi obozami koncentracyjnymi i nie przejmuje się gadaniem słownikowych purystów". I bardzo niedobrze!

rob006   6 #86 06.08.2015 12:53

@Berion: Porównujesz stwierdzenie zakłamujące prawdę historyczną (która jest faktem i jest bezwarunkowa) do rozszerzenia definicji, która jest wymyślona i w ten samo sposób jak został wymyślona może zostać zmieniona. Podstawowa różnica jest taka, że samo przyjęcie że obozy były polskie nie sprawi że takie były, za to powszechne uznanie że kompresja może być stratna, już tak. Pomijam zabarwienie emocjonalne, które zaczepia o psychologiczny terroryzm. :D
W każdym razie powodzenia ze swoja krucjatą, polecam jednak zacząć od nawracania środowiska akademickiego i profesjonalistów, bo promowanie takich racji na blogu niczego nie zmieni, po prostu trudniej będzie się dogadać z laikami, którzy zaczną to po tobie powtarzać. Szczególnie jeśli zaczniesz to urozmaicać o inne kompletnie do czapy słownictwo, np pakowanie, które nie jest jednoznaczne z kompresją i nie musi być z nią wcale powiązane, czy jakieś mętne dzielenie formatów na gorsze i lepsze.

Berion   13 #87 06.08.2015 13:36

@rob006: "za to powszechne uznanie że kompresja może być stratna, już tak".
No nie! Nie, nie. Właśnie nie może bo kompresja stratna nie miałaby sensu. Nie ma kompresji stratnej, mimo że często zmiana formatu jest tak nazywana i pomimo że ta "definicja" się przyjęła. W dalszym ciągu nie zmienia to faktu, że fizycznie to są dwa zupełnie różne procesy.

W którym miejscu utożsamiam pakowanie z kompresją? Co rozumiesz poprzez mętne dzielenie formatów na lepsze i gorsze? Wybierane formaty uzasadniłem, nigdzie ich nie stopniuje w ten sposób.

rob006   6 #88 06.08.2015 19:41

@Berion: Najpierw robisz pogadankę o tym, że kompresja nie może być stratna i że wiele osób uznaje zmianę formatu na np JPG (który uznajesz za "gorszy") za kompresję, a później stwierdzasz że to wszystko nie tak, bo to nie ma nic wspólnego z pakowaniem. Więc jak to mam interpretować? Bo jeśli nie zakładasz tutaj że kompresja = pakowanie, to cały akapit przypomina zdanie: "wszyscy myślą że ogórek jest zielony, ale on wcale nie jest owocem" - nawet jeśli nie zawiera sprzeczności, to jest bez sensu.
Poza tym nie chce mi się już powtarzać że definicje typu "kompresja" albo "kompresja stratna" są wymyślane przez człowieka i wykłócanie się o to co która znaczy przypomina walką o to, że jabłko nie powinno się nazywać jabłko, tylko gruszka. Tutaj nie ma jedynej słusznej wersji, używa się tej, która jest powszechnie przyjęta.

Berion   13 #89 07.08.2015 00:28

@rob006: Ja widzę, że masz problemy z czytaniem ze zrozumieniem... Dlaczego mieszasz ze sobą kilka różnych tematów? Nie wiem w takim razie czy nasza dyskusja ma sens. :P

rob006   6 #90 07.08.2015 18:59

@Berion: Jeśli masz zamiar posiłkować się taką "argumentacją", to zdecydowanie nie. Zresztą, jak już napisałem, życzę ci szczęścia w swojej krucjacie, ale naprawdę zabierasz się od złej strony - wpisami na blogu nic nie zdziałasz, a szczególnie takimi tekstami, bo cały tamten akapit brzmi jak pisany przez laika który coś tam kojarzy, ale nie do końca, co nie przeszkadza mu walczyć z systemem i wysnuwać śmiałe teorie o tym że wszyscy się mylą. :)
BTW: polecam wziąć na warsztat świnkę morską - bardzo wdzięczny temat na dysputy o tym że świat źle ją nazywa, bo nie jest ani świnką, ani morską. :D

Berion   13 #91 08.08.2015 01:25

@rob006: Życzę każdemu aby czytał tak laickie teksty takiego laika jak ja. Pozdrawiam.

rob006   6 #92 08.08.2015 14:25

@Berion: Skromność zawsze w cenie :)

Hajime   7 #93 07.09.2015 09:30

Bardzo ciekawy artykuł, warty rozważenia. Czytając go zacząłem się zastanawiać co mam takiego ważnego, ze warto to backupować na kilkadziesiąt lat. Wyszło mi, że tylko zdjęcia, dokumenty i niektóre moje projekty (ale one to raczej na pamiątkę). Nagrywanie na płytach DVD i BD-R nie traci jeszcze sensu.
Inne rzeczy, takie jak seriale, gry, filmy, muzyka to rzeczy nabyte, które można zdobyć ponownie. :-)

Berion   13 #94 07.09.2015 14:49

@Hajime: Jest dokładnie tak jak napisałeś. Płyty schodzą jednak powoli z rynku konsumenckiego i za jakiś czas będzie to w domu nieopłacalne.

PS: Z projektami mam dokładnie tak samo. :D

Autor edytował komentarz.
  #95 02.10.2015 08:59

Drogi autorze. Prawdopodobnie nie wziąłeś w ogóle pod uwagę tego , że kompresja w ujęciu informatyki może mieć zgoła inne znaczenie, niż kompresja przedstawiona np. w fizyce. Dlatego też pojęcie "kompresji stratnej", jak i "kompresji bezstratnej" jest jak najbardziej na miejscu. Negowanie istnienia takich pojęć to po prostu ignorancja, a w przypadku publikacji tego artykułu, to również rozpowszechnianie nieprawdziwych informacji.

Berion   13 #96 02.10.2015 11:16

@efamon (niezalogowany): Dzięki takim błyskotliwym określeniom zwykły użytkownik boi się kompresować cokolwiek nie rozumiejąc co jest "kompresją stratną", a co "kompresją stratną". Czas to zmienić. ;)

  #97 02.10.2015 12:43

Wg mnie zwykły użytkownik rzadko będzie "kompresował", tylko np. "pakował" lub "zapisywał zdjęcie". Zaplecze techniczne nie będzie go w ogóle interesować, a jak zachce poszerzyć swoją wiedzę (lub zechce przestać się bać), to w internecie szybko znajdzie mnóstwo informacji nt. kompresji. Tak więc proszę przestać szerzyć dezinformację i poprawić poradnik. Żegnam :)

  #98 09.02.2016 02:54

@Axles: Jasne, że TAK!

But_w_trawie   8 #99 04.04.2016 15:43

Dzięki Berion za namiar na ten artykuł. po prostu świetny. Szkoda tylko (tak jak to pisałem w dyskusji w newsach) że nie ma nośników typu SD, ale wypalanych tak jak PROM a nie z pływającą bramką typu FLASH które są rozwinięciem EEPROM (EEPROM jest kasowany elektronicznie jak flash, za to EPROM jest kasowany przez UV po odsłonięciu okna w chipie). to tyle żali.

Co do metody, no cóż. trzeba będzie zainwestować w nagrywarę BD, najlepiej odłączalną na USB aby się nie męczyła przy byle włączeniu kompa.

Mnie zastanawiają inne rzeczy. Zamiast kompresowania plików nie poddających się kompresji, równie dobrze można puścić w ruch MD5SUM lub SHA2 aby wygenerowało hashe kontrolne. Wtedy bardzo łatwo jest zidentyfikować zepsute pliki.

Zastanawia mnie też inna myśl. widziałem opis programiku którego nazwy nie pamiętam (jest gdzieś na DP), który potrafił odczytać kilka płyt i na ich podstawie generował płytę dodatkową. Całkowite uszkodzenie (lub zagubienie) dowolnej płyty pozwalało na jej odzyskanie. Coś w rodzaju płytowego manualnego RAID3. to prawie jak RAID5 tyle że bez rozproszenia sum XOR :)
Można by też taki program rozszerzyć o możliwość wytworzenia dla jednej grupy nośników nie jednej lecz dwóch lub trzech/czterech płyt dodatkowych. Koszt obliczeniowy oczywiście wyższy, ale można wtedy utracić zapis większej ilości płyt, coś jak RAID6 gdzie wypadnięcie 2ch dysków nie powoduje utraty danych macierzy, czyli liczenie w ten sposób: https://en.wikipedia.org/wiki/Finite_field .
Co do chmur, też marnie widzę ten "nośnik" informacji. w umowie jest mowa o przechowywaniu, ale nie ma żadnej gwarancji na wypadek utraty danych.
Jeśli chodzi o NAS, fajne do archiwizacji bieżącej, ale nie trwałej.
Jeszcze ktoś podał przykład archiwizacji projektów. Takie rzeczy robi się np w Subversion. Ale to też jest taka "tymczasówka". można jednak całe repo po skompaktowaniu archiwizować, albo archiwizować nie katalog offline ale wyjście generowane przez narzędzia do kontroli CVS. z tego wychodzą ładne diffy :) które nie przeistaczają się w terabajty danych.
generalnie wielkie dzięki za artykuł.

co do nośników BD, do tej pory odstraszały mnie ceny nośników i napędów, dlatego nie mam ani jednego. W ostatnich latach jednak się to zmieniło na plus, a w obniżce cen jeszcze bardziej pomógł wyrok jakiejś instytucji UE która wytknęła palcem zmowę cenową producentów napędów BL. Obebnie 50GB na nośniku do archiwizacji w domu ma sens, za to 4GB nie ma żadnego. oczywiście piszę o nośnikach jednostronnych jednowarstwowych.

Jeszcze co do rysek i zabezpieczenia powierzchni, bo mało kto wie.
W przypadku CD, strona do odczytu nie może być porysowana aby odczyt był możliwy. niestety nośnik informacji jest po drugiej stronie płyty i jest zabezpieczony cienką warstwą farby. ta strona też nie może być porysowana.
Rysy po stronie bez farby można nawet polerować aby odzyskać dane.

W przypadku DVD jest już lepiej, bo nośnik informacji jest dokładnie pośrodku przekroju płyty. Tu też można nośnik polerować, za to warstwa z farbą może być porysowana i nic się nie dzieje. jest lepiej, ale główna wada tej płyty to dwie warstwy plastiku które są ze sobą sklejone przez co jest tu mniejsza odporność na zginanie, bo się rozklei i nośnik informacji się utleni. albo się utleni warstwa aluminium.

W przypadku BD jest jeszcze ciekawiej, bo warstwa nośna danych jest z drugiej strony przekroju krążka, odwrotnie niż przy CD. co prawda jest tu warstwa twardego plastiku, ale jest on bardzo cienki. Strona od której czyta laser nie może być porysowana bo pożegnamy się z danymi. Warstwa z farbą za to nas nie interesuje, wytrzymałość na zginanie jest taka jak w CD.

Ja też nie mam zaufania do płyt wielowarstwowych. same problemy, i z nagrywaniem bo nieprawidłowo podzieli na sesje, ale też chodzi o uszkodzenia. zarysowanie oznacza że może się uszkodzić więcej danych niż byśmy chcieli. To jest dobre do filmów czy dystrybucji programów, ale nie do archiwizacji.

Berion   13 #100 04.04.2016 16:23

@But_w_trawie: "Co do metody, no cóż. trzeba będzie zainwestować w nagrywarę BD, najlepiej odłączalną na USB aby się nie męczyła przy byle włączeniu kompa."

Są kiepskie. Zainwestuj w któryś z topowych 5.25 modeli BD (wiele pali też M-Disc). I wyczekuj tak jak ja kontrolerów na USB 3.1 (chodzi o to, że można to zmieścić w pudełku od zapałek na jednym kablu, a nie jak obecnie buduje się pająki na biurku).

Plików już mocno skompresowanych oczywiście, nie ma sensu kompresować (co zaznaczyłem w tekście, być może za mało temu poświęciłem miejsca). Po prostu jeśli jest ich dużo i są "tematycznie wspólne" polecam "kontenerować" (czyli pakować bez kompresji). Oczywiście alternatywnie można użyć wyliczania sum kontrolnych (na Windows np. używam md5summer.org). Dlatego buduję archiwa bez kompresji, że mam pod ppm "testuj", co jest wygodniejsze od odpalania programu do sum i wskazywania pliku z sumami. I tylko dlatego.

"widziałem opis programiku którego nazwy nie pamiętam (jest gdzieś na DP), który potrafił odczytać kilka płyt i na ich podstawie generował płytę dodatkową."

O tym nie słyszałem, ale zasada podobna jak do dvdisaster. Tylko, widzę taką wadę że jak uszkodzi się ta "płyta recovery" razem z jedną z "płyt zwykłych" to nici z odzyskania danych. W divdisaster możesz te dane korekcyjne wyprowadzić do pliku, a nie koniecznie dodawać do niezajętej przestrzeni na płycie (i to trochę podobne rozwiązanie do tego o którym wspomniałeś - i z tymi samymi wadami).

Co do projektów - zależy od branży. Programiści z tego co kojarzę olali już svn na rzecz git. Ja kiedy jestem grafikiem, w ogóle tego nie potrzebuję ponieważ tak ustalam hierarchię i nazewnictwo grup i warstw w *.psd abym nie musiał wersjonować pliku. Przyjąłem taką formę, że jeden projekt to jeden folder, w nim dokumentacja, w podfolderze czcionki, w osobnym plik lub pliki projektu, w jeszcze osobnym pocięte grafiki dla programisty, w jeszcze innym gotowe atlasy w różnych wersjach (również dla programisty). Kiedy przestaję się tym zajmować lub wiem że wrócę do takiego za kilka miesięcy to całą zawartość folderu z projektem pakuję, nazywam w stylu "nazwa prj (data).7z" i wrzucam do backupu.

Wielowarstwowych płyt przy backupie unikaj. Druga warstwa potrafi być problematyczna na zużytych/zakurzonych napędach.

U mnie sens stosowania płyt jest na krawędzi opłacalności (stosunek ilość danych do czasu i cen, dlatego wykonuję je rzadko, ale mam przynajmniej spokojne sumienie).

Ceny nie są już takie wysokie. BD-M to około 25zł, BD-R HTL (uważaj na LTH które są podkładką pod piwo ;]) to około 8zł.

Niestety w BD zrezygnowano z zabezpieczenia obu stron (być może ze względu na cenę, ale ta warstwa jest znacznie twardsza niż wszystkie do tej pory i rysę jak Rów Mariański jest ciężko zrobić). Ja jednak wolałbym z obu. ;)

PS: A co do tabliczek glinianych. Jak umieścimy na osi czasu te w porywach kilkadziesiąt KB to już nie wypadają tak atrakcyjnie. ;p

Autor edytował komentarz w dniu: 04.04.2016 16:30
  #101 15.09.2016 13:01

Bardzo dobry artykuł, choć zgodzę się , ze jest dość skomplikowany. Zgodzę się , ze tylko dobrej jakości zapis płytowy może konkurować pod względem trwałości z ZFS, ale na ZFS nie każdego stać.
Przechowywanie zawsze kosztowało , a im cenniejsze skarby staramy się ochronić tym większe nakłady sił i środków musimy nań przeznaczyć. Jeśli ktoś uważa , że te byle jakie fotki z imienin kumpla to nic ważnego albo filmik z urodzin babci to się grubo myli. Wartość ich tak jak każdej innej niepowtarzalnej rzeczy rośnie z każdym rokiem. Jeśli zdecyduje się je chronić to po kilkunastu lub kilkudziesięciu latach będą miały wartość(sentymentalną) wyższą niż eksponaty w Luwrze. Bo są niepowtarzalne , bo to kawałek naszej prywatnej historii. Więc chyba warto ?
Policzmy ile kosztowałby najtańszy serwer obsługujący ZFS np. na energooszczędnym J1900 – wyjdzie ok. 1100 -1400. Pytanie dlaczego nie 2-4 zatokowy NAS ? Bo nie ma 100% pewności , ze dane tam przechowywane nie są lub nie będą uszkodzone nawet pomimo RAID. Kilka razy znalazłem uszkodzone pliki, które wcześniej skopiowałem z DVD-R z weryfikacją. Na szczęście miałem odczytywalne płyty ?.
Wiec jeśli nie mamy pod ręką niepotrzebnego 1,5k to pozostaje nam wypalać. Myślę , ze najlepszym sposobem byłoby napisać program/skrypt , który sam co określony czas wykonywałby backup określonych folderów, zasobów sieciowych, chmury, sortowałby i odpowiednio nazywał pliki, katalogowałby je , wykonywał obraz , dane naprawcze i jedynie co pewien czas prosiłby nas o włożenie czystej płyty. A że płyta płycie nierówna to po określonym czasie prosiłby nas o włożenie nagranej płyty w celu jej weryfikacji.
Z ekonomicznego punktu widzenia na dzień dzisiejszy najlepszym rozwiązaniem jest nagrywanie M-disc’ów na BD-R (BD-R: 500pln vs DVD-R:2000pln za 1TB). Za jakiś czas zostanie opracowany nowy , bardziej pojemny standard i nic nie będzie stało na przeszkodzie aby dzisiejsze zbiory na BD-R tam przenieść. Tak jak miało to miejsce w przypadku CD i DVD.
A jeśli chodzi o szukanie plików na wielu płytach to dawno, dawno temu jak miałem Epsona R200 to robiłem print screena zawartości płyty i drukowałem go na płycie – taki banał a do tej pory przydatny

But_w_trawie   8 #102 15.09.2016 15:02

@Anonim (niezalogowany): mi się marzą karty SD typu readonly, bez pamięci typu FLASH będącej odpowiednikiem eprom lub eeprom, lecz pamięcią typu PROM, czyli jednokrotnego zapisu, gdzie zapis polega na trwałym przepalaniu obwodów. Zapis na takim nośniku jest bardzo trwały, i można go tanio produkować. przy czym komórka pamięci w zadanej litografii zajmuje znacznie mniejszą powierzchnię, niż komórka pamięci flash. to jest bardzo stara technologia, szkoda że zapomniana. może wielcy kiedyś do tego pomysłu wrócą. zapis na tym jest trwalszy niż na płytach jednokrotnego zapisu, a zajmują nieporównanie mniejszą powierzchnię. Jednowarstwowy BL to typowo max. 33.4GB, podczas gdy tyle bez problemu mieści się na flashowym microSD, a są już microSD 64GB. W technologii PROM dałoby się bez problemu zmieścić na microSD w UHS-1 nawet 256GB, a produkcja PROM jest tania, o wiele łatwiejsza niż FLASH SLC. Już teraz jak popatrzyłem na ceny DVD, to gigabajt na flashach jest 2x droższy. to już bardzo mała różnica. Zastosowanie PROM zrównałoby cenę gigabajta z BR, a może by nawet poleciałoby to w dół.
Co ciekawe, takie PROM-owe SD mogłoby spokojnie służyć do dystrybucji filmów, gier, zamiast płyt DVD i BR a nawet CD. Także podobnie jak przy płytach tłoczonych, także można by "tłoczyć" chipy SD jako klasyczne moduły ROM, zaprogramowane w procesie produkcji, a to byłoby jeszcze tańsze w masowej produkcji. Problem w tym, że nikt nie chce się za to wziąć.

Berion   13 #103 15.09.2016 22:38

@But_w_trawie: Na to musimy zaczekać do popularyzacji 3DXP (ta ma realną przyszłość, tak patrząc w dniu dzisiejszym).

Jednowarstwowy BD to ~23GB. Chyba literówka. ;)

@Anonim (niezalogowany) : Dzięki za wartościowy komentarz. Mam podobne podejście.

But_w_trawie   8 #104 16.09.2016 09:34

@Berion: taka ciekawostka, pamięć typu PROM może mieć architekturę podobną jak intelowska nieulotna 3DXP, przy czym pamięć przepalana typu PROM używa starych technik które są obecnie wszechstronnie używane. co do 3DXP, czekamy na koniec roku, ale te pamięci polecą najpierw do segmentu z górnej półki do rozwiązań korporacyjnych. Chociaż jeśli takie 3DXP za bajt byłoby tańsze od RAM, to już miałoby sens nawet w domu, bo część ramu można by zastąpić 3DXP, i można zrezygnować ze SWAP i hiberfile.

Berion   13 #105 16.09.2016 16:38

@But_w_trawie: Chodziło mi o to że to marny zysk dla producenta. Dlatego realne szanse ma póki co tylko 3DXP (i też przy założeniu, że rzeczywiście nie cierpi na przeskoki ładunków i że dane mogą tam leżeć dekadami, czego żaden NAND i NOR nie spełnia).

But_w_trawie   8 #106 19.09.2016 12:23

@Berion: w 3DXP zmienia się struktura fazowa substancji pamiętającej pod wpływem ładunku jaki przez nią przepłynął. szkoda że niewiele wiemy o samej komórce pamięci, póki co jest to tajemnica Intela i pozostanie nią tak długo, dopóki tego nie zacznie sprzedawać, i chińczycy nie rozpiłują chipa, i nie sprawdzą jego składu chemicznego.