Jednym z ważnych, a często niedocenianych aspektów bezpieczeństwa informacji jest odpowiednie usuwanie zbędnych danych. Jest to istotne w przypadku nośników i urządzeń, które zmieniają właściciela lub użytkownika wewnątrz organizacji, ale szczególnie wazne, kiedy wychodzą na zewnątrz. Istnieje wiele różnych metod niszczenia danych, jak również wiele procedur regulujących sposoby usuwania informacji. Niestety w wielu przypadkach procedury te są tworzone bez odpowiedniego zrozumienia zagadnień technicznych związanych z działaniem nośników danych i fizyką przechowywania informacji.
Artykuł "Jak skutecznie usunąć zbędne dane?" odpowiada na pytanie, kiedy metodę niszczenia danych możemy uznać za skuteczną, a kiedy nie. Zawiera też krótki przegląd metod powszechnie wykorzystywanych w celu uniemożliwienia odzyskania informacji ze wskazaniem ich skuteczności w odniesieniu do różnych kategorii nośników. Artykuł ten został opublikowany w Security Magazine № 9/2022
W wielu przypadkach utraty dostępu do informacji zanim przekażemy dysk do profesjonalnego laboratorium często podejmujemy samodzielne próby odzyskania danych. W niektórych sytuacjach postępując w odpowiedni sposób faktycznie możemy liczyć na sukces. W innych bez odpowiednich umiejętności, doświadczenia, narzędzi i warunków sukcesem będzie, jeśli niczego dodatkowo nie zepsujemy.
Jednak bardzo często trafiają do naszego serwisu dyski, w których obok usterki pierwotnej występują także usterki wtórne spowodowane nieumiejętnymi próbami odzyskiwania danych. Czasem usterki wtórne jedynie utrudniają odzyskanie danych wydłużając proces i podnosząc jego koszty, w innych przypadkach przyczyniają się do pogorszenia możliwego do uzyskania rezultatu. Ale zdarza się też tak, że konsekwencją popełnionych błędów jest bezpowrotne zniszczenie danych. Szczególnie często zdarza się to w pozornie łatwych przypadkach uszkodzeń na poziomie struktur logicznych, gdzie dane łatwo ulegają zniszczeniu przez nadpisanie w wyniku bezsensownych zapisów dokonywanych przez użytkownika. O najczęstszych błędach w samodzielnym odzyskiwaniu danych przeczytasz w Security Magazine № 1(10)/2023.
Bardzo częstą przyczyną błędów w odzyskiwaniu danych jest podejmowanie działań nieadekwatnych do usterki. Zazwyczaj takie błędy popełniamy, kiedy do odzyskiwania danych przystępujemy od razu, działając w pośpiechu pod presją czasu bez chociażby elementarnej diagnostyki dysku. A często nawet nie rozumiejac podstaw funkcjonowania dysku i tego, co może się w nim zepsuć.
Artykuł "Podstawy diagnostyki dysków twardych" przybliża podstawy budowy i funkcjonowania dysków twardych oraz przedstawia ich procedurę startową. Obserwując proces uruchamiania dysku twardego można z dużym prawdopodobieństwem wytypować przyczynę jego usterki. A już nawet samo choćby i ogólne określenie rodzaju problemu pozwala uniknąć wielu zbędnych i ryzykownych działań. Jak to zrobić? Przeczytasz o tym w Security Magazine № 2(11)/2023.
Kiedy mówimy o rodzajach nośników danych, zazwyczaj przychodzą nam na myśl trzy popularne kategorie:
- mośniki magnetyczne, czyli dyski twarde, taśmy magnetyczne, a jeśli ktoś pamięta, to jeszcze dyskietki,
- nośniki półprzewodnikowe wykorzystujące układy typu Flash-NAND, jak dyski SSD, pendrivy, karty pamięci, czy występujące w wielu urządzeniach mobilnych układy eMMC,
- tracące na znaczeniu, ale wciąz jeszcze obecne w użyciu nośniki optyczne, czyli płyty CD, DVD i Blu-Ray.
Ale w ich cieniu niepostrzeżenie na rynek trafiła zupelnie nowa kategoria nośników danych - pamięci zmiennofazowe - PCM (Phase Change Memory). Jest to bardzo mało znany typ nośników informacji wykorzystywany w pamięciach buforowych Intel Optane oraz Intel Optane SSD. Artykuł o pamięciach zmiennofazowych ukazał się w jubileuszowym № 3(12)/2023 Security Magazine.
Z punktu widzenia użytkownika zarządzanie plikami wygląda bardzo prosto. Wystarczy parę razy kliknąć myszką, by znaleźć potrzebny dokument. Jeśli często z niego korzystamy, możemy utworzyć skrót ułatwiający jego wywołanie. Możemy też korzystać z różnych popularnych menedżerów plików, a jak ktoś umie i lubi, może też zarządzać plikami wpisując w konsoli odpowiednie polecenia.
Ale dysku nie obchodzi, jak interpretujemy jego zawartość. Z dyskiem komunikujemy się adresując dane w sektorach. W jaki sposób adresujemy dane na poziomie logicznym i jak to się dzieje, że grupę sektorów nie zawsze leżących jeden za drugim możemy traktować jako logicznie spójną całość? O tym przeczytasz w Security Magazine w № 5(14)/2023.
Pierwszy dysk twardy mieścił ok. 5 MB informacji na 50 talerzach o średnicy 24" i ważył niemal tonę. Postęp techniczny, jaki dokonał się na przestrzeni prawie 70 istnienia dysków twardych w dużym stopniu był ukierunkowany na zwiększenie gęstości zapisu. W rezultacie dziś możemy zmieścić 1 TB danych na jednym talerzu o średnicy 2,5". To porównanie i tak nie w pełni oddaje skalę postępu, gdyż oprócz danych użytkownika na talerzu dysku twardego musimy też jeszcze zmieścić szereg informacji niezbędnych dla prawidłowej pracy urządzenia. A tych informacji współcześnie jest znacznie więcej, niż w latach '50 ubiegłego stulecia.
Jednym z najnowszych osiagnięć w dziedzinie zwiększania gęstości zapisu w dyskach twardych jest zapis dachówkowy SMR (Shingled Magnetic Recording) zwany też zapisem gontowym. Jednak za to rozwiązanie musimy zapłacić cenę w postaci większego skomplikowania oprogramowania układowego zarządzającego dyskiem, większego ryzyka awarii oraz niższej wydajności przy zapisie danych. Dlaczego tak się dzieje? I jak działa zapis dachówkowy? Odpowiedzi na te pytania znajdziesz w № 6(15)/2023 Security Magazine.
Kiedy mowa idzie o usterkach dysków twardych, zazwyczaj w pierwszej kolejności przychodzą nam na myśl uszkodzenia mechaniczne i elektroniczne. I faktycznie to właśnie one przez długie lata były najważniejszymi przyczynami awarii dysków twardych. Ale z biegiem lat sytuacja się zmieniła. Dyski twarde stały się urządzeniami na ogół bardziej dopracowanymi mechanicznie. Z rynku zniknęły też najniższej klasy zasilacze będące podstawową przyczyną usterek elektronicznych, a także wpływające na szybszą degradację powierzchni magnetycznej.
A jednak dyski nadal się psują. Tylko zmienił się charakter występujących w nich problemów. Usterki mechaniczne i elektroniczne nadal występują, ale coraz większe znaczenie w awaryjności dysków twardych zyskują problemy oprogramowania układowego. Rosnąca gęstość zapisu niesie za sobą nowe wyzwania związane z zarządzaniem dyskami, a także rodzi nowe podatności. O tych zagadnieniach niewiele się mówi. Być może dlatego, że nie są one tak medialne, jak wymiana uszkodzonych głowic. Ale jeśli chcesz się dowiedzieć więcej o tym, co może się zepsuć w oprogramowaniu układowym dysku twardego, zajrzyj do № 9(18)/2023 Security Magazine.
Nośniki półprzewodnikowe, do których należą m. in. dyski SSD często przedstawiane są jako urządzenia niezawodne i bezawaryjne. Przemawia za tym przede wszystkim ich odporność na upadki i inne uszkodzenia mechaniczne tak groźne dla dysków twardych. Tym niemniej SSDki też się psują. Przestają być rozpoznawane przez BIOS komputera, tracą pojemność lub są rozpoznawane pod jakimiś dziwnymi nazwami, jak np. SATAFIRM S11. Najczęstsza diagnoza brzmi: "awaria kontrolera".
Wydawać by się mogło, że nic prostszego. Trzeba wymienić kontroler i nasz SSD znów zacznie działać. Jednak diagnoza mówiąca o uszkodzeniu kontrolera jest daleko idącym skrótem myślowym. Próba wymiany układu kontrolera nie pomoże ani naprawić SSDka, ani odzyskać danych. Wręcz przeciwnie - może stać się przyczyną bezpowrotnej utraty informacji. Jeśli interesujesz się tym, co się kryje za usterką kontrolera, przeczytaj Security Magazine № 11(20)/2023.
Zazwyczaj dane zapisane na nośniku w postaci ciągłej, nieprzerwanej sekwencji sektorów czytają się szybciej, niż dane pofragmentowane. Jest to szczególnie zauważalne w przypadku dysków twardych, gdzie duży wpływ na czas dostępu do danych ma podsystem mechaniczny i konieczność odszukiwania kolejnych sektorów przez głowicę i przełączania się między głowicami odczytującymi różne powierzchnie. Dlatego w przypadku dysków twardych zaleca się ich defragmentację.
Inaczej wyglada sytuacja w przypadku nośników półprzewodnikowych, gdzie przynajmniej teoretycznie czasy dostępu do wszystkich fizycznych jednostek alokacji powinny być jednakowe. Dlatego w ich przypadku defragmentacji związanej z zużywającymi układy Flash-NAND zapisami się nie zaleca. A jednak czasami zdarzają nam się nietypowe sytuacje, kiedy dane pofragmentowane czytają się szybciej od danych ciągłych. Dlaczego tak się czasem dzieje? Sprawdź w Security Magazine № 1(22)/2024.
SSDki wyparły dyski twarde w większości zastosowań biurowych i domowych. Pojemności SSDków w ostatnim czasie wyraźnie wzrosły, a ich ceny praktycznie zrównały się z cenami dysków twardych. Obecnie już bardzo trudno kupić laptopa z dyskiem twardym. Ale też rosnąca popularność SSDków spowodowała, że większość z nas ma już jakieś przykre doświadczenie z ich awaryjnością i coraz trudniej spotkać kogoś wierzącego w marketingowe zapewnienia o ich niezawodności.
W przypadku dysków twardych awarie, o ile nie były konsekwencją nieszczęśliwego upadku, zazwyczaj były przewidywalne. Podejrzane dźwięki, problemy z odczytem, alerty podsystemu SMART, pojawiające się uszkodzone sektory pozwalały odpowiednio wcześniej zareagować i zabezpieczyć dane. W przypadku SSDków niestety nie jest tak różowo. Dla większości użytkowników awaria SSDka jest całkowitym zaskoczeniem. Czy można taką awarię przewidzieć? O tym jest artykuł w Security Magazine № 2(23)/2024.
Pomysł na wykorzystanie zjawisk magnetorezystywnych do przechowywania informacji pojawił się jeszcze na początku lat '70, jednak ówczesna znajomość fizyki nie pozwalała go w pełni rozwinąć. Zbyt małe różnice rezystancji uzyskiwane na wczesnym etapie prac nad pamięciami magnetorezystywnycmi doprowadziły do porzucenia tej koncepcji, jako mało obiecującej. Powrócono do niej dopiero po odkryciu zjawisk gigantycznego i tunelowego magnetooporu. Wykorzystanie tych zjawisk pchnęło prace nad pamięciami magnetorezystywnymi na nowe tory. Opracowano szereg koncepcji pozwalających na stworzenie niezawodnych i wydajnych układów pamięci nadających się do wykorzystania w wielu zastosowaniach, jakich podstawową wadą wydaje się być jedynie cena.
Czy pamięci magnetorezystywne faktycznie odnajdą się w roli cache, pamięci operacyjnej lub nośników danych? Czy będą w stanie wyprzeć tańsze odpowiedniki? A może kiedy trafią do masowej produkcji, stanieją na tyle, by stać się bezkonkurencyjnym i uniwersalnym rodzajem pamięci ogólnego przeznaczenia? Artykuł o pamięciach magnetorezystywnych znajdziesz w Security Magazine № 3(24)/2024.
W internecie bez trudu można znaleźć instrukcje prostego samodzielnego odzyskiwania danych. Zazwyczaj sprowadzają się one do wyboru i instalacji określonego programu i wykonaniu pewnej sekwencji czynności. Często postępowanie zgodnie z taką instrukcją nie wymaga nawet podstawowej wiedzy informatycznej, a przeprowadzenie procedury nie pozostawia uzytkownikowi zbyt dużego pola do podejmowania samodzielnych decyzji. Cóż więc może pójść nie tak?
A jednak czesto te procedury nie działają. Postępowanie według instrukcji nie tylko nie przynosi pożądanego rezultatu, ale też nierzadko prowadzi do pogorszenia sytuacji. W skrajnym przypadku może nawet uniemożliwić odzyskanie danych. Dlaczego tak się dzieje? Czego tym instrukcjom brakuje i do jakich błędów mogą prowadzić? Jak działają i czym się różnią programy do odzyskiwania danych? I czy uniwersalna instrukcja odzyskiwania danych w ogóle może powstać? O tym przeczytasz w Security Magazine № 4(25)/2024.
Macierze RAID często są postrzegane, jako jedna z najbezpieczniejszych metod przechowywania danych. Sprzedawcy przekonują nas o ich niezawodności i odporności na awarie dysków. Wiele osób uważa je wręcz za substytut kopii zapasowych. Ale czy naprawdę można im bezgranicznie zaufać?
W Security Magazine № 5(26)/2024 przedstawiam przypadek macierzy RAID, jaka, gdyby była tym, czym miała być, zapewnie spełniła by swoją rolę, ale pojawił się powód, dla jakiego spełnić jej nie mogła. Co ciekawe, tak naprawdę to nie sama macierz się uszkodziła, ale serwer, jaki nią zarządzał. Dlaczego więc pierwsza próba odzyskiwania danych z tej macierzy zakończyła się niepowodzeniem? I jakie błędy nie powinny się przy tej okazji nigdy wydarzyć? Bo gdyby nie pewien błąd i gdyby administrator znał rzeczywiste parametry macierzy, prawdopodobnie włożenie dysków do drugiego, odpowiednio skonfigurowanego serwera rozwiązałoby problem.
Odzyskiwanie danych przede wszystkim kojarzy się z zagadnieniami technicznymi. Nośnikami danych i ich budową, fizyką zapisu i przechowywania informacji, strukturami logicznymi systemów plików, usterkami, awariami, czasem też celowymi działaniami ukierunkowanymi na zniszczenie danych. Ale obok zagadnień typowo merytorycznych czasem pojawiają się problemy o charakterze etycznym, dotykające zaufania, prywatności, poufności danych, uczciwości wyceny...
Co tak naprawdę widzi i co o nas wie specjalista odzyskujący dane? Co może nam obiecać, kiedy oddajemy w jego ręce nasz dysk? W jaki sposób może być wyceniona usługa? Kiedy powinien o zawartości dysku zawiadomić Policję? Odpowiedzi na te pytania nie znajdziesz w Security Magazine № 6(27)/2024...ale znajdziesz tam próbę rozwiązania tych złożonych problemów.
Uszkodzone sektory są popularnym problemem w dyskach twardych. Degradacja powierzchni może prowadzić do uszkodzenia plików, destabilizacji struktur logicznych i utraty danych. Często satysfakcjonuje nas samo stwierdzenie wystąpienia uszkodzonych sektorów na dysku.
Ale czy wszystkie uszkodzone sektory są takie same? Skąd się biorą? Jaką mają wartość diagnostyczną? Czy można je naprawić? O tym przeczytasz w Security Magazine № 7(28)/2024.
SMART (ang. Self Monitoring And Reporting Technology), to technologia wymyślona jeszcze w latach '90 po to, by uprzedzać nas o zbliżającej się awarii dysków twardych. System SMART obejmuje szereg różnych parametrów, jakie często są wykorzystywane dla szybkiej diagnostyki dysków. Liczne programy ułatwiają nam interpretację tych parametrów, często też podając jakiś wskaźnik (np. procentowy) ogólnej żywotności dysku. A jednak czasem zdarza się, że ten sam dysk według jednego programu jest sprawny, a według innego niekoniecznie...
Skąd się biorą takie rozbieżności? Na ile możemy zaufać statusowi SMART? I czy może on zastąpić pełną diagnostykę? O tym, a także na co zwracać szczególną uwagę przy analizie SMARTu, dowiesz się z Security Magazine № 8(29)/2024.
Wrzesień, to czas powrotu do szkoły i zakupu nowych podręczników. W zasadzie powinnismy się zgodzić, że inwestycja w wiedzę jest jedną z najlepszych inwestycji, jakie możemy zrobić. Oczywiście pod warunkiem, że inwestujemy w rzetelną wiedzę, a nie w dezinformację. Czy zatem warto wydać kilkadziesiąt złotych na podręcznik "Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych : INF02 : podręcznik do nauki zawodu technik informatyk cz. 1"?
Niewątpliwie podręcznik ten zasługuje na dokładniejszą analizę i recenzję. W Security Magazine № 9(30)/2024 opublikowana została recenzja jedynie jednego, 112 rozdziału tego podręcznika - "Odzyskiwanie utraconych danych". Dlaczego recenzja tylko jednego rozdziału dostarczyła materiału na cały artykuł? Koniecznie sprawdź w magazynie.
Dyski SSD w ostatnim czasie mocno zyskały na popularności wypierając z niektórych zastosowań dyski twarde. Zwłaszcza w przypadku laptopów SSD stały się standardowymi nośnikami. Niestety są to nośniki dosyć awaryjne, przez co często są przyczyną utraty danych. Dlatego warto poznać choćby w zarysie ich funkcjonowanie oraz czynniki wpływające na awaryjność SSD.
W czasie prezentacji została omówiona budowa i zasady działania nośników półprzewodnikowych z uwzględnieniem fizyki zapisu i przechowywania danych. Zostały także przedstawione podstawowe rozwiązania oprogramowania układowego oraz wpływ wykonywanych operacji na zużycie układów Flash-NAND i najczęstsze usterki dysków SSD.
Prezentacja SSD - spojrzenie do wnętrza została przedstawiona w dniu 18 marca 2022 r. na XV Forum Bezpieczeństwa i Audytu IT "Semafor"
Poprawne nieodwracalne usuwanie danych jest mocno niedocenianym aspektem cyberbezpieczeństwa. Z jednej strony zaniedbania w zakresie odpowiedniego niszczenia informacji często skutkują wyciekami danych, z drugiej brak dostatecznej wiedzy technicznej na temat fizyki zapisu i przechowywania danych uniemożliwia optymalizację procesu ich usuwania i naraża organizacje na wysokie koszty zbędnej nadmiarowości wynikającej z procedur niszczenia danych.
Nadpisywanie danych jest jedną z najtańszych metod niszczenia informacji. Jest możliwe do samodzielnego przeprowadzenia z wykorzystaniem szerokiej gamy oprogramowania, w tym i darmowego. W dodatku nadpisane nośniki nie ulegają zniszczeniu u mogą być nadal eksploatowane. Ma to znaczenie nie tylko ekonomiczne, ale jest też istotne z punktu widzenia ograniczania wytwarzania elektroodpadów i ochrony srodowiska. Tym niemniej wciąż podnoszone są wątpliwości co do skuteczności nadpisywania danych i wciąż ta metoda jest postrzegana, jako mniej bezpieczna od fizycznego zniszczenia nośnika.
Na ile te obawy są uzasadnione? I jakie warunki powinny być spełnione, by uznać, że dane na dysku zostały nieodwracalnie zniszczone? Odpowiedzi na te pytania udziela Peter Gutmann w swoim artykule Secure Deletion of Data from Magnetic and Solid State Memory. W tym samym artykule Gutmann proponuje swój słynny 35-przebiegowy algorytm nadpisywania danych. Na ile odpowiedzi udzielone przez Gutmanna są adekwatne do procesów fizycznych rzeczywiście przebiegających w dyskach twardych? I ile tak naprawdę razy trzeba nadpisywać dane, by je zniszczyć?
Prezentacja Wyrzucamy algorytm Gutmanna do kosza została przedstawiona w dniu 20 października 2023 r. na konferencji The H@ck Summit. Opis do niej możesz znaleźć na Elektrodzie.
Procedury niszczenia danych mają nas chronić przed negatywnymi skutkami wycieków danych. Wycofując nośniki danych z eksploatacji i przekazując je poza organizację powinniśmy zadbać o to, by na tych nośnikach nie pozostały mniej lub bardziej wrażliwe informacje. Zwykle w kwestiach bezpieczeństwa danych staramy się polegać na jakichś normach, standardach i innych regulacjach. Chcielibyśmy, by podobnie było i w kwestii usuwnia informacji.
I faktycznie istnieje wiele opracowanych przez różne instytucje aktów normatywnych regulujących procedury niszczenia danych oraz ich nośników. Tych regulacji jest tak dużo, że możemy się zastanawiać, czy nie jest ich czasem zbyt wiele? Zaś analiza ich zawartości pozwala stwierdzić, że różnią się one w wielu bardzo istotnych szczegółach. Nic więc dziwnego, że często trudno nam tym dokumentom zaufać i wybrać ten, na jakim oprzemy naszą procedurę tak, by dane niszczyć skutecznie i bezpiecznie, ale też jednocześnie nie przepłacać za niepotrzebną nadmiarowość.
Jakie metody niszczenia danych wybrać? Które z nich są naprawdę skuteczne i na ile możemy im zaufać? Czy wieloetapowe procedury niszczenia danych mają sens? Czy żeby zniszczyc dane trzeba też zniszczyć nośnik? Czy dane wrażliwe trzeba niszczyć inaczej, niż pozostałe? Czy wybór metody niszczenia danych powinien zależeć od dalszych losów dysku? Odpowiedzi na te pytania możemy szukać w regulacjach, ale szybko zauważymy, że te regulacje często nie tylko zaprzeczają sobie nawzajem, ale też potrafią być wewnętrznie niespójne. Dlatego warto się zainteresować fizyką zapisu i przechowywania informacji oraz tym, jak nośniki danych działają naprawdę.
Prezentacja Niszczenie danych - regulacje, a rzeczywista skuteczność została przedstawiona na konferencji Semafor w dniu 15 marca 2024 r.
W przypadku nośników półprzewodnikowych nie ma możliwości bezpośredniego nadpisywania fizycznych jednostek adresacji. Zaprogramowane strony nie mogą być po prostu przeprogramowywane, a muszą być najpierw skasowane, by można było zaprogramować je inną zawartością. Dlatego potrzebujemy pewnej liczby wolnych fizycznych bloków oczekujących na przyjęcie nowych danych poza adresacją LBA i dlatego też zawartość edytowana na poziomie sektorów LBA trafia do innej fizycznej lokalizacji, niż ta, gdzie te sektory LBA znajdowały się poprzednio.
Także w przypadku dysków SMR (Shingled Magnetic Recording) pojawia się problem ze swobodnym dostępem do sektora przy zapisie. Wynika to z faktu, że przy częściowym nadpisywaniu ścieżek, ich szerokość jest mniejsza, niż szerokość ścieżki zapisywanej głowicą zapisującą. Dlatego przy próbie zapisania pojedynczego sektora uszkodzeniu ulegałyby też sektory na ścieżkach sąsiednich. Z kolei przepisywanie całych stref SMR negatywnie wpływa na wydajność nośnika.
W obu przypadkach do rozwiązania wskazanych wyżej problemów i dla podniesienia wydajności pracy nośników wykorzystuje się funkcję TRIM. Funkcja ta pozwala nie przechowywać fizycznie danych znajdujących się poza obszarami zaalokowanymi w logicznych strukturach systemów plików. Przy żądaniu odczytania takich obszarów, nośnik zwraca sektory wypełnione zerami nie podejmując nawet próby fizycznego odczytania zawartości. Niesie to pewnie konsekwencje dla bezpieczeństwa informacji, odzyskiwania danych i informatyki śledczej...
Prezentacja TRIM w dyskach SMR i SSD została przedstawiona na konferencji The H@ck Summit w dniu 18 października 2024 r.
26 odcinek podcastu Elektrody został poświęcony tematyce niszczenia, przechowywania i odzyskiwania danych. Z kolegą TechEkspertem rozmawiamy o wybranych aspektach technicznych związanych z fizyką przechowywania informacji w nośnikach magnetycznych oraz półprzewodnikowych wykorzystujących układy typu Flash-NAND. Skupiamy się na niskopoziomowych zagadnieniach ułatwiających zrozumienie przechowywania i usuwania danych, a także wyjaśniających przyczyny najbardziej typowych awarii i możliwości odzyskania informacji w takich sytuacjach. Nagranie trwa ok. pięciu kwadransów;).