serwis komputerowy, odzyskiwanie danych


Publikacje o odzyskiwaniu danych i nośnikach informacji



Artykuły w prasie informatycznej



Jak skutecznie usunąć zbędne dane?


Jednym z ważnych, a często niedocenianych aspektów bezpieczeństwa informacji jest odpowiednie usuwanie zbędnych danych. Jest to istotne w przypadku nośników i urządzeń, które zmieniają właściciela lub użytkownika wewnątrz organizacji, ale szczególnie wazne, kiedy wychodzą na zewnątrz. Istnieje wiele różnych metod niszczenia danych, jak również wiele procedur regulujących sposoby usuwania informacji. Niestety w wielu przypadkach procedury te są tworzone bez odpowiedniego zrozumienia zagadnień technicznych związanych z działaniem nośników danych i fizyką przechowywania informacji.
Artykuł "Jak skutecznie usunąć zbędne dane?" odpowiada na pytanie, kiedy metodę niszczenia danych możemy uznać za skuteczną, a kiedy nie. Zawiera też krótki przegląd metod powszechnie wykorzystywanych w celu uniemożliwienia odzyskania informacji ze wskazaniem ich skuteczności w odniesieniu do różnych kategorii nośników. Artykuł ten został opublikowany w Security Magazine № 9/2022



Najczęstsze błędy samodzielnego odzyskiwania danych.


W wielu przypadkach utraty dostępu do informacji zanim przekażemy dysk do profesjonalnego laboratorium często podejmujemy samodzielne próby odzyskania danych. W niektórych sytuacjach postępując w odpowiedni sposób faktycznie możemy liczyć na sukces. W innych bez odpowiednich umiejętności, doświadczenia, narzędzi i warunków sukcesem będzie, jeśli niczego dodatkowo nie zepsujemy.
Jednak bardzo często trafiają do naszego serwisu dyski, w których obok usterki pierwotnej występują także usterki wtórne spowodowane nieumiejętnymi próbami odzyskiwania danych. Czasem usterki wtórne jedynie utrudniają odzyskanie danych wydłużając proces i podnosząc jego koszty, w innych przypadkach przyczyniają się do pogorszenia możliwego do uzyskania rezultatu. Ale zdarza się też tak, że konsekwencją popełnionych błędów jest bezpowrotne zniszczenie danych. Szczególnie często zdarza się to w pozornie łatwych przypadkach uszkodzeń na poziomie struktur logicznych, gdzie dane łatwo ulegają zniszczeniu przez nadpisanie w wyniku bezsensownych zapisów dokonywanych przez użytkownika. O najczęstszych błędach w samodzielnym odzyskiwaniu danych przeczytasz w Security Magazine № 1(10)/2023.



Podstawy diagnostyki dysków twardych.


Bardzo częstą przyczyną błędów w odzyskiwaniu danych jest podejmowanie działań nieadekwatnych do usterki. Zazwyczaj takie błędy popełniamy, kiedy do odzyskiwania danych przystępujemy od razu, działając w pośpiechu pod presją czasu bez chociażby elementarnej diagnostyki dysku. A często nawet nie rozumiejac podstaw funkcjonowania dysku i tego, co może się w nim zepsuć.
Artykuł "Podstawy diagnostyki dysków twardych" przybliża podstawy budowy i funkcjonowania dysków twardych oraz przedstawia ich procedurę startową. Obserwując proces uruchamiania dysku twardego można z dużym prawdopodobieństwem wytypować przyczynę jego usterki. A już nawet samo choćby i ogólne określenie rodzaju problemu pozwala uniknąć wielu zbędnych i ryzykownych działań. Jak to zrobić? Przeczytasz o tym w Security Magazine № 2(11)/2023.



Pamięci zmiennofazowe


Kiedy mówimy o rodzajach nośników danych, zazwyczaj przychodzą nam na myśl trzy popularne kategorie:
- mośniki magnetyczne, czyli dyski twarde, taśmy magnetyczne, a jeśli ktoś pamięta, to jeszcze dyskietki,
- nośniki półprzewodnikowe wykorzystujące układy typu Flash-NAND, jak dyski SSD, pendrivy, karty pamięci, czy występujące w wielu urządzeniach mobilnych układy eMMC,
- tracące na znaczeniu, ale wciąz jeszcze obecne w użyciu nośniki optyczne, czyli płyty CD, DVD i Blu-Ray.
Ale w ich cieniu niepostrzeżenie na rynek trafiła zupelnie nowa kategoria nośników danych - pamięci zmiennofazowe - PCM (Phase Change Memory). Jest to bardzo mało znany typ nośników informacji wykorzystywany w pamięciach buforowych Intel Optane oraz Intel Optane SSD. Artykuł o pamięciach zmiennofazowych ukazał się w jubileuszowym № 3(12)/2023 Security Magazine.



Rola metadanych w przechowywaniu plików.


Z punktu widzenia użytkownika zarządzanie plikami wygląda bardzo prosto. Wystarczy parę razy kliknąć myszką, by znaleźć potrzebny dokument. Jeśli często z niego korzystamy, możemy utworzyć skrót ułatwiający jego wywołanie. Możemy też korzystać z różnych popularnych menedżerów plików, a jak ktoś umie i lubi, może też zarządzać plikami wpisując w konsoli odpowiednie polecenia.
Ale dysku nie obchodzi, jak interpretujemy jego zawartość. Z dyskiem komunikujemy się adresując dane w sektorach. W jaki sposób adresujemy dane na poziomie logicznym i jak to się dzieje, że grupę sektorów nie zawsze leżących jeden za drugim możemy traktować jako logicznie spójną całość? O tym przeczytasz w Security Magazine w № 5(14)/2023.



Przewagi i problemy zapisu SMR.


Pierwszy dysk twardy mieścił ok. 5 MB informacji na 50 talerzach o średnicy 24" i ważył niemal tonę. Postęp techniczny, jaki dokonał się na przestrzeni prawie 70 istnienia dysków twardych w dużym stopniu był ukierunkowany na zwiększenie gęstości zapisu. W rezultacie dziś możemy zmieścić 1 TB danych na jednym talerzu o średnicy 2,5". To porównanie i tak nie w pełni oddaje skalę postępu, gdyż oprócz danych użytkownika na talerzu dysku twardego musimy też jeszcze zmieścić szereg informacji niezbędnych dla prawidłowej pracy urządzenia. A tych informacji współcześnie jest znacznie więcej, niż w latach '50 ubiegłego stulecia.
Jednym z najnowszych osiagnięć w dziedzinie zwiększania gęstości zapisu w dyskach twardych jest zapis dachówkowy SMR (Shingled Magnetic Recording) zwany też zapisem gontowym. Jednak za to rozwiązanie musimy zapłacić cenę w postaci większego skomplikowania oprogramowania układowego zarządzającego dyskiem, większego ryzyka awarii oraz niższej wydajności przy zapisie danych. Dlaczego tak się dzieje? I jak działa zapis dachówkowy? Odpowiedzi na te pytania znajdziesz w № 6(15)/2023 Security Magazine.



Najczęściej spotykane usterki dysków twardych.


Kiedy mowa idzie o usterkach dysków twardych, zazwyczaj w pierwszej kolejności przychodzą nam na myśl uszkodzenia mechaniczne i elektroniczne. I faktycznie to właśnie one przez długie lata były najważniejszymi przyczynami awarii dysków twardych. Ale z biegiem lat sytuacja się zmieniła. Dyski twarde stały się urządzeniami na ogół bardziej dopracowanymi mechanicznie. Z rynku zniknęły też najniższej klasy zasilacze będące podstawową przyczyną usterek elektronicznych, a także wpływające na szybszą degradację powierzchni magnetycznej.
A jednak dyski nadal się psują. Tylko zmienił się charakter występujących w nich problemów. Usterki mechaniczne i elektroniczne nadal występują, ale coraz większe znaczenie w awaryjności dysków twardych zyskują problemy oprogramowania układowego. Rosnąca gęstość zapisu niesie za sobą nowe wyzwania związane z zarządzaniem dyskami, a także rodzi nowe podatności. O tych zagadnieniach niewiele się mówi. Być może dlatego, że nie są one tak medialne, jak wymiana uszkodzonych głowic. Ale jeśli chcesz się dowiedzieć więcej o tym, co może się zepsuć w oprogramowaniu układowym dysku twardego, zajrzyj do № 9(18)/2023 Security Magazine.



Najczęstsze przyczyny awarii SSD.


Nośniki półprzewodnikowe, do których należą m. in. dyski SSD często przedstawiane są jako urządzenia niezawodne i bezawaryjne. Przemawia za tym przede wszystkim ich odporność na upadki i inne uszkodzenia mechaniczne tak groźne dla dysków twardych. Tym niemniej SSDki też się psują. Przestają być rozpoznawane przez BIOS komputera, tracą pojemność lub są rozpoznawane pod jakimiś dziwnymi nazwami, jak np. SATAFIRM S11. Najczęstsza diagnoza brzmi: "awaria kontrolera".
Wydawać by się mogło, że nic prostszego. Trzeba wymienić kontroler i nasz SSD znów zacznie działać. Jednak diagnoza mówiąca o uszkodzeniu kontrolera jest daleko idącym skrótem myślowym. Próba wymiany układu kontrolera nie pomoże ani naprawić SSDka, ani odzyskać danych. Wręcz przeciwnie - może stać się przyczyną bezpowrotnej utraty informacji. Jeśli interesujesz się tym, co się kryje za usterką kontrolera, przeczytaj Security Magazine № 11(20)/2023.



Dlaczego dane ciągłe czytają się wolniej od pofragmentowanych?


Zazwyczaj dane zapisane na nośniku w postaci ciągłej, nieprzerwanej sekwencji sektorów czytają się szybciej, niż dane pofragmentowane. Jest to szczególnie zauważalne w przypadku dysków twardych, gdzie duży wpływ na czas dostępu do danych ma podsystem mechaniczny i konieczność odszukiwania kolejnych sektorów przez głowicę i przełączania się między głowicami odczytującymi różne powierzchnie. Dlatego w przypadku dysków twardych zaleca się ich defragmentację.
Inaczej wyglada sytuacja w przypadku nośników półprzewodnikowych, gdzie przynajmniej teoretycznie czasy dostępu do wszystkich fizycznych jednostek alokacji powinny być jednakowe. Dlatego w ich przypadku defragmentacji związanej z zużywającymi układy Flash-NAND zapisami się nie zaleca. A jednak czasami zdarzają nam się nietypowe sytuacje, kiedy dane pofragmentowane czytają się szybciej od danych ciągłych. Dlaczego tak się czasem dzieje? Sprawdź w Security Magazine № 1(22)/2024.



Jak przewidzieć awarię SSD?


SSDki wyparły dyski twarde w większości zastosowań biurowych i domowych. Pojemności SSDków w ostatnim czasie wyraźnie wzrosły, a ich ceny praktycznie zrównały się z cenami dysków twardych. Obecnie już bardzo trudno kupić laptopa z dyskiem twardym. Ale też rosnąca popularność SSDków spowodowała, że większość z nas ma już jakieś przykre doświadczenie z ich awaryjnością i coraz trudniej spotkać kogoś wierzącego w marketingowe zapewnienia o ich niezawodności.
W przypadku dysków twardych awarie, o ile nie były konsekwencją nieszczęśliwego upadku, zazwyczaj były przewidywalne. Podejrzane dźwięki, problemy z odczytem, alerty podsystemu SMART, pojawiające się uszkodzone sektory pozwalały odpowiednio wcześniej zareagować i zabezpieczyć dane. W przypadku SSDków niestety nie jest tak różowo. Dla większości użytkowników awaria SSDka jest całkowitym zaskoczeniem. Czy można taką awarię przewidzieć? O tym jest artykuł w Security Magazine № 2(23)/2024.



Czy przyszłością mogą być pamięci magnetorezystywne?


Pomysł na wykorzystanie zjawisk magnetorezystywnych do przechowywania informacji pojawił się jeszcze na początku lat '70, jednak ówczesna znajomość fizyki nie pozwalała go w pełni rozwinąć. Zbyt małe różnice rezystancji uzyskiwane na wczesnym etapie prac nad pamięciami magnetorezystywnycmi doprowadziły do porzucenia tej koncepcji, jako mało obiecującej. Powrócono do niej dopiero po odkryciu zjawisk gigantycznego i tunelowego magnetooporu. Wykorzystanie tych zjawisk pchnęło prace nad pamięciami magnetorezystywnymi na nowe tory. Opracowano szereg koncepcji pozwalających na stworzenie niezawodnych i wydajnych układów pamięci nadających się do wykorzystania w wielu zastosowaniach, jakich podstawową wadą wydaje się być jedynie cena.
Czy pamięci magnetorezystywne faktycznie odnajdą się w roli cache, pamięci operacyjnej lub nośników danych? Czy będą w stanie wyprzeć tańsze odpowiedniki? A może kiedy trafią do masowej produkcji, stanieją na tyle, by stać się bezkonkurencyjnym i uniwersalnym rodzajem pamięci ogólnego przeznaczenia? Artykuł o pamięciach magnetorezystywnych znajdziesz w Security Magazine № 3(24)/2024.



O pokrokowych instrukcjach odzyskiwania danych.


W internecie bez trudu można znaleźć instrukcje prostego samodzielnego odzyskiwania danych. Zazwyczaj sprowadzają się one do wyboru i instalacji określonego programu i wykonaniu pewnej sekwencji czynności. Często postępowanie zgodnie z taką instrukcją nie wymaga nawet podstawowej wiedzy informatycznej, a przeprowadzenie procedury nie pozostawia uzytkownikowi zbyt dużego pola do podejmowania samodzielnych decyzji. Cóż więc może pójść nie tak?
A jednak czesto te procedury nie działają. Postępowanie według instrukcji nie tylko nie przynosi pożądanego rezultatu, ale też nierzadko prowadzi do pogorszenia sytuacji. W skrajnym przypadku może nawet uniemożliwić odzyskanie danych. Dlaczego tak się dzieje? Czego tym instrukcjom brakuje i do jakich błędów mogą prowadzić? Jak działają i czym się różnią programy do odzyskiwania danych? I czy uniwersalna instrukcja odzyskiwania danych w ogóle może powstać? O tym przeczytasz w Security Magazine № 4(25)/2024.



Historia pewnej macierzy.


Macierze RAID często są postrzegane, jako jedna z najbezpieczniejszych metod przechowywania danych. Sprzedawcy przekonują nas o ich niezawodności i odporności na awarie dysków. Wiele osób uważa je wręcz za substytut kopii zapasowych. Ale czy naprawdę można im bezgranicznie zaufać?
W Security Magazine № 5(26)/2024 przedstawiam przypadek macierzy RAID, jaka, gdyby była tym, czym miała być, zapewnie spełniła by swoją rolę, ale pojawił się powód, dla jakiego spełnić jej nie mogła. Co ciekawe, tak naprawdę to nie sama macierz się uszkodziła, ale serwer, jaki nią zarządzał. Dlaczego więc pierwsza próba odzyskiwania danych z tej macierzy zakończyła się niepowodzeniem? I jakie błędy nie powinny się przy tej okazji nigdy wydarzyć? Bo gdyby nie pewien błąd i gdyby administrator znał rzeczywiste parametry macierzy, prawdopodobnie włożenie dysków do drugiego, odpowiednio skonfigurowanego serwera rozwiązałoby problem.



Prezentacje z konferencji IT



SSD - spojrzenie do wnętrza.


Dyski SSD w ostatnim czasie mocno zyskały na popularności wypierając z niektórych zastosowań dyski twarde. Zwłaszcza w przypadku laptopów SSD stały się standardowymi nośnikami. Niestety są to nośniki dosyć awaryjne, przez co często są przyczyną utraty danych. Dlatego warto poznać choćby w zarysie ich funkcjonowanie oraz czynniki wpływające na awaryjność SSD.
W czasie prezentacji została omówiona budowa i zasady działania nośników półprzewodnikowych z uwzględnieniem fizyki zapisu i przechowywania danych. Zostały także przedstawione podstawowe rozwiązania oprogramowania układowego oraz wpływ wykonywanych operacji na zużycie układów Flash-NAND i najczęstsze usterki dysków SSD.
Prezentacja SSD - spojrzenie do wnętrza została przedstawiona w dniu 18 marca 2022 r. na XV Forum Bezpieczeństwa i Audytu IT "Semafor"



Wyrzucamy algorytm Gutmanna do kosza.


Poprawne nieodwracalne usuwanie danych jest mocno niedocenianym aspektem cyberbezpieczeństwa. Z jednej strony zaniedbania w zakresie odpowiedniego niszczenia informacji często skutkują wyciekami danych, z drugiej brak dostatecznej wiedzy technicznej na temat fizyki zapisu i przechowywania danych uniemożliwia optymalizację procesu ich usuwania i naraża organizacje na wysokie koszty zbędnej nadmiarowości wynikającej z procedur niszczenia danych.
Nadpisywanie danych jest jedną z najtańszych metod niszczenia informacji. Jest możliwe do samodzielnego przeprowadzenia z wykorzystaniem szerokiej gamy oprogramowania, w tym i darmowego. W dodatku nadpisane nośniki nie ulegają zniszczeniu u mogą być nadal eksploatowane. Ma to znaczenie nie tylko ekonomiczne, ale jest też istotne z punktu widzenia ograniczania wytwarzania elektroodpadów i ochrony srodowiska. Tym niemniej wciąż podnoszone są wątpliwości co do skuteczności nadpisywania danych i wciąż ta metoda jest postrzegana, jako mniej bezpieczna od fizycznego zniszczenia nośnika.
Na ile te obawy są uzasadnione? I jakie warunki powinny być spełnione, by uznać, że dane na dysku zostały nieodwracalnie zniszczone? Odpowiedzi na te pytania udziela Peter Gutmann w swoim artykule Secure Deletion of Data from Magnetic and Solid State Memory. W tym samym artykule Gutmann proponuje swój słynny 35-przebiegowy algorytm nadpisywania danych. Na ile odpowiedzi udzielone przez Gutmanna są adekwatne do procesów fizycznych rzeczywiście przebiegających w dyskach twardych? I ile tak naprawdę razy trzeba nadpisywać dane, by je zniszczyć?
Prezentacja Wyrzucamy algorytm Gutmanna do kosza została przedstawiona w dniu 20 października 2023 r. na konferencji The H@ck Summit. Opis do niej możesz znaleźć na Elektrodzie.



Niszczenie danych - regulacje, a rzeczywista skuteczność.


Procedury niszczenia danych mają nas chronić przed negatywnymi skutkami wycieków danych. Wycofując nośniki danych z eksploatacji i przekazując je poza organizację powinniśmy zadbać o to, by na tych nośnikach nie pozostały mniej lub bardziej wrażliwe informacje. Zwykle w kwestiach bezpieczeństwa danych staramy się polegać na jakichś normach, standardach i innych regulacjach. Chcielibyśmy, by podobnie było i w kwestii usuwnia informacji.
I faktycznie istnieje wiele opracowanych przez różne instytucje aktów normatywnych regulujących procedury niszczenia danych oraz ich nośników. Tych regulacji jest tak dużo, że możemy się zastanawiać, czy nie jest ich czasem zbyt wiele? Zaś analiza ich zawartości pozwala stwierdzić, że różnią się one w wielu bardzo istotnych szczegółach. Nic więc dziwnego, że często trudno nam tym dokumentom zaufać i wybrać ten, na jakim oprzemy naszą procedurę tak, by dane niszczyć skutecznie i bezpiecznie, ale też jednocześnie nie przepłacać za niepotrzebną nadmiarowość.
Jakie metody niszczenia danych wybrać? Które z nich są naprawdę skuteczne i na ile możemy im zaufać? Czy wieloetapowe procedury niszczenia danych mają sens? Czy żeby zniszczyc dane trzeba też zniszczyć nośnik? Czy dane wrażliwe trzeba niszczyć inaczej, niż pozostałe? Czy wybór metody niszczenia danych powinien zależeć od dalszych losów dysku? Odpowiedzi na te pytania możemy szukać w regulacjach, ale szybko zauważymy, że te regulacje często nie tylko zaprzeczają sobie nawzajem, ale też potrafią być wewnętrznie niespójne. Dlatego warto się zainteresować fizyką zapisu i przechowywania informacji oraz tym, jak nośniki danych działają naprawdę.
Prezentacja Niszczenie danych - regulacje, a rzeczywista skuteczność została przedstawiona na konferencji Semafor w dniu 15 marca 2024 r.



Nagrania audio



Niszczenie, przechowywanie i odzyskiwanie danych.


26 odcinek podcastu Elektrody został poświęcony tematyce niszczenia, przechowywania i odzyskiwania danych. Z kolegą TechEkspertem rozmawiamy o wybranych aspektach technicznych związanych z fizyką przechowywania informacji w nośnikach magnetycznych oraz półprzewodnikowych wykorzystujących układy typu Flash-NAND. Skupiamy się na niskopoziomowych zagadnieniach ułatwiających zrozumienie przechowywania i usuwania danych, a także wyjaśniających przyczyny najbardziej typowych awarii i możliwości odzyskania informacji w takich sytuacjach. Nagranie trwa ok. pięciu kwadransów;).