serwis komputerowy, odzyskiwanie danych


Publikacje o odzyskiwaniu danych i nośnikach informacji



Artykuły w prasie informatycznej



Jak skutecznie usunąć zbędne dane?


Jednym z ważnych, a często niedocenianych aspektów bezpieczeństwa informacji jest odpowiednie usuwanie zbędnych danych. Jest to istotne w przypadku nośników i urządzeń, które zmieniają właściciela lub użytkownika wewnątrz organizacji, ale szczególnie wazne, kiedy wychodzą na zewnątrz. Istnieje wiele różnych metod niszczenia danych, jak również wiele procedur regulujących sposoby usuwania informacji. Niestety w wielu przypadkach procedury te są tworzone bez odpowiedniego zrozumienia zagadnień technicznych związanych z działaniem nośników danych i fizyką przechowywania informacji.
Artykuł "Jak skutecznie usunąć zbędne dane?" odpowiada na pytanie, kiedy metodę niszczenia danych możemy uznać za skuteczną, a kiedy nie. Zawiera też krótki przegląd metod powszechnie wykorzystywanych w celu uniemożliwienia odzyskania informacji ze wskazaniem ich skuteczności w odniesieniu do różnych kategorii nośników. Artykuł ten został opublikowany w Security Magazine № 9/2022



Najczęstsze błędy samodzielnego odzyskiwania danych.


W wielu przypadkach utraty dostępu do informacji zanim przekażemy dysk do profesjonalnego laboratorium często podejmujemy samodzielne próby odzyskania danych. W niektórych sytuacjach postępując w odpowiedni sposób faktycznie możemy liczyć na sukces. W innych bez odpowiednich umiejętności, doświadczenia, narzędzi i warunków sukcesem będzie, jeśli niczego dodatkowo nie zepsujemy.
Jednak bardzo często trafiają do naszego serwisu dyski, w których obok usterki pierwotnej występują także usterki wtórne spowodowane nieumiejętnymi próbami odzyskiwania danych. Czasem usterki wtórne jedynie utrudniają odzyskanie danych wydłużając proces i podnosząc jego koszty, w innych przypadkach przyczyniają się do pogorszenia możliwego do uzyskania rezultatu. Ale zdarza się też tak, że konsekwencją popełnionych błędów jest bezpowrotne zniszczenie danych. Szczególnie często zdarza się to w pozornie łatwych przypadkach uszkodzeń na poziomie struktur logicznych, gdzie dane łatwo ulegają zniszczeniu przez nadpisanie w wyniku bezsensownych zapisów dokonywanych przez użytkownika. O najczęstszych błędach w samodzielnym odzyskiwaniu danych przeczytasz w Security Magazine № 1(10)/2023.



Podstawy diagnostyki dysków twardych.


Bardzo częstą przyczyną błędów w odzyskiwaniu danych jest podejmowanie działań nieadekwatnych do usterki. Zazwyczaj takie błędy popełniamy, kiedy do odzyskiwania danych przystępujemy od razu, działając w pośpiechu pod presją czasu bez chociażby elementarnej diagnostyki dysku. A często nawet nie rozumiejac podstaw funkcjonowania dysku i tego, co może się w nim zepsuć.
Artykuł "Podstawy diagnostyki dysków twardych" przybliża podstawy budowy i funkcjonowania dysków twardych oraz przedstawia ich procedurę startową. Obserwując proces uruchamiania dysku twardego można z dużym prawdopodobieństwem wytypować przyczynę jego usterki. A już nawet samo choćby i ogólne określenie rodzaju problemu pozwala uniknąć wielu zbędnych i ryzykownych działań. Jak to zrobić? Przeczytasz o tym w Security Magazine № 2(11)/2023.



Pamięci zmiennofazowe


Kiedy mówimy o rodzajach nośników danych, zazwyczaj przychodzą nam na myśl trzy popularne kategorie:
- mośniki magnetyczne, czyli dyski twarde, taśmy magnetyczne, a jeśli ktoś pamięta, to jeszcze dyskietki,
- nośniki półprzewodnikowe wykorzystujące układy typu Flash-NAND, jak dyski SSD, pendrivy, karty pamięci, czy występujące w wielu urządzeniach mobilnych układy eMMC,
- tracące na znaczeniu, ale wciąz jeszcze obecne w użyciu nośniki optyczne, czyli płyty CD, DVD i Blu-Ray.
Ale w ich cieniu niepostrzeżenie na rynek trafiła zupelnie nowa kategoria nośników danych - pamięci zmiennofazowe - PCM (Phase Change Memory). Jest to bardzo mało znany typ nośników informacji wykorzystywany w pamięciach buforowych Intel Optane oraz Intel Optane SSD. Artykuł o pamięciach zmiennofazowych ukazał się w jubileuszowym № 3(12)/2023 Security Magazine.



Rola metadanych w przechowywaniu plików.


Z punktu widzenia użytkownika zarządzanie plikami wygląda bardzo prosto. Wystarczy parę razy kliknąć myszką, by znaleźć potrzebny dokument. Jeśli często z niego korzystamy, możemy utworzyć skrót ułatwiający jego wywołanie. Możemy też korzystać z różnych popularnych menedżerów plików, a jak ktoś umie i lubi, może też zarządzać plikami wpisując w konsoli odpowiednie polecenia.
Ale dysku nie obchodzi, jak interpretujemy jego zawartość. Z dyskiem komunikujemy się adresując dane w sektorach. W jaki sposób adresujemy dane na poziomie logicznym i jak to się dzieje, że grupę sektorów nie zawsze leżących jeden za drugim możemy traktować jako logicznie spójną całość? O tym przeczytasz w Security Magazine w № 5(14)/2023.



Przewagi i problemy zapisu SMR.


Pierwszy dysk twardy mieścił ok. 5 MB informacji na 50 talerzach o średnicy 24" i ważył niemal tonę. Postęp techniczny, jaki dokonał się na przestrzeni prawie 70 istnienia dysków twardych w dużym stopniu był ukierunkowany na zwiększenie gęstości zapisu. W rezultacie dziś możemy zmieścić 1 TB danych na jednym talerzu o średnicy 2,5". To porównanie i tak nie w pełni oddaje skalę postępu, gdyż oprócz danych użytkownika na talerzu dysku twardego musimy też jeszcze zmieścić szereg informacji niezbędnych dla prawidłowej pracy urządzenia. A tych informacji współcześnie jest znacznie więcej, niż w latach '50 ubiegłego stulecia.
Jednym z najnowszych osiagnięć w dziedzinie zwiększania gęstości zapisu w dyskach twardych jest zapis dachówkowy SMR (Shingled Magnetic Recording) zwany też zapisem gontowym. Jednak za to rozwiązanie musimy zapłacić cenę w postaci większego skomplikowania oprogramowania układowego zarządzającego dyskiem, większego ryzyka awarii oraz niższej wydajności przy zapisie danych. Dlaczego tak się dzieje? I jak działa zapis dachówkowy? Odpowiedzi na te pytania znajdziesz w № 6(15)/2023 Security Magazine.



Najczęściej spotykane usterki dysków twardych.


Kiedy mowa idzie o usterkach dysków twardych, zazwyczaj w pierwszej kolejności przychodzą nam na myśl uszkodzenia mechaniczne i elektroniczne. I faktycznie to właśnie one przez długie lata były najważniejszymi przyczynami awarii dysków twardych. Ale z biegiem lat sytuacja się zmieniła. Dyski twarde stały się urządzeniami na ogół bardziej dopracowanymi mechanicznie. Z rynku zniknęły też najniższej klasy zasilacze będące podstawową przyczyną usterek elektronicznych, a także wpływające na szybszą degradację powierzchni magnetycznej.
A jednak dyski nadal się psują. Tylko zmienił się charakter występujących w nich problemów. Usterki mechaniczne i elektroniczne nadal występują, ale coraz większe znaczenie w awaryjności dysków twardych zyskują problemy oprogramowania układowego. Rosnąca gęstość zapisu niesie za sobą nowe wyzwania związane z zarządzaniem dyskami, a także rodzi nowe podatności. O tych zagadnieniach niewiele się mówi. Być może dlatego, że nie są one tak medialne, jak wymiana uszkodzonych głowic. Ale jeśli chcesz się dowiedzieć więcej o tym, co może się zepsuć w oprogramowaniu układowym dysku twardego, zajrzyj do № 9(18)/2023 Security Magazine.



Najczęstsze przyczyny awarii SSD.


Nośniki półprzewodnikowe, do których należą m. in. dyski SSD często przedstawiane są jako urządzenia niezawodne i bezawaryjne. Przemawia za tym przede wszystkim ich odporność na upadki i inne uszkodzenia mechaniczne tak groźne dla dysków twardych. Tym niemniej SSDki też się psują. Przestają być rozpoznawane przez BIOS komputera, tracą pojemność lub są rozpoznawane pod jakimiś dziwnymi nazwami, jak np. SATAFIRM S11. Najczęstsza diagnoza brzmi: "awaria kontrolera".
Wydawać by się mogło, że nic prostszego. Trzeba wymienić kontroler i nasz SSD znów zacznie działać. Jednak diagnoza mówiąca o uszkodzeniu kontrolera jest daleko idącym skrótem myślowym. Próba wymiany układu kontrolera nie pomoże ani naprawić SSDka, ani odzyskać danych. Wręcz przeciwnie - może stać się przyczyną bezpowrotnej utraty informacji. Jeśli interesujesz się tym, co się kryje za usterką kontrolera, przeczytaj Security Magazine № 11(20)/2023.



Dlaczego dane ciągłe czytają się wolniej od pofragmentowanych?


Zazwyczaj dane zapisane na nośniku w postaci ciągłej, nieprzerwanej sekwencji sektorów czytają się szybciej, niż dane pofragmentowane. Jest to szczególnie zauważalne w przypadku dysków twardych, gdzie duży wpływ na czas dostępu do danych ma podsystem mechaniczny i konieczność odszukiwania kolejnych sektorów przez głowicę i przełączania się między głowicami odczytującymi różne powierzchnie. Dlatego w przypadku dysków twardych zaleca się ich defragmentację.
Inaczej wyglada sytuacja w przypadku nośników półprzewodnikowych, gdzie przynajmniej teoretycznie czasy dostępu do wszystkich fizycznych jednostek alokacji powinny być jednakowe. Dlatego w ich przypadku defragmentacji związanej z zużywającymi układy Flash-NAND zapisami się nie zaleca. A jednak czasami zdarzają nam się nietypowe sytuacje, kiedy dane pofragmentowane czytają się szybciej od danych ciągłych. Dlaczego tak się czasem dzieje? Sprawdź w Security Magazine № 1(22)/2024.



Jak przewidzieć awarię SSD?


SSDki wyparły dyski twarde w większości zastosowań biurowych i domowych. Pojemności SSDków w ostatnim czasie wyraźnie wzrosły, a ich ceny praktycznie zrównały się z cenami dysków twardych. Obecnie już bardzo trudno kupić laptopa z dyskiem twardym. Ale też rosnąca popularność SSDków spowodowała, że większość z nas ma już jakieś przykre doświadczenie z ich awaryjnością i coraz trudniej spotkać kogoś wierzącego w marketingowe zapewnienia o ich niezawodności.
W przypadku dysków twardych awarie, o ile nie były konsekwencją nieszczęśliwego upadku, zazwyczaj były przewidywalne. Podejrzane dźwięki, problemy z odczytem, alerty podsystemu SMART, pojawiające się uszkodzone sektory pozwalały odpowiednio wcześniej zareagować i zabezpieczyć dane. W przypadku SSDków niestety nie jest tak różowo. Dla większości użytkowników awaria SSDka jest całkowitym zaskoczeniem. Czy można taką awarię przewidzieć? O tym jest artykuł w Security Magazine № 2(23)/2024.



Prezentacje z konferencji IT



SSD - spojrzenie do wnętrza.


Dyski SSD w ostatnim czasie mocno zyskały na popularności wypierając z niektórych zastosowań dyski twarde. Zwłaszcza w przypadku laptopów SSD stały się standardowymi nośnikami. Niestety są to nośniki dosyć awaryjne, przez co często są przyczyną utraty danych. Dlatego warto poznać choćby w zarysie ich funkcjonowanie oraz czynniki wpływające na awaryjność SSD.
W czasie prezentacji została omówiona budowa i zasady działania nośników półprzewodnikowych z uwzględnieniem fizyki zapisu i przechowywania danych. Zostały także przedstawione podstawowe rozwiązania oprogramowania układowego oraz wpływ wykonywanych operacji na zużycie układów Flash-NAND i najczęstsze usterki dysków SSD.
Prezentacja SSD - spojrzenie do wnętrza została przedstawiona w dniu 18 marca 2022 r. na XV Forum Bezpieczeństwa i Audytu IT "Semafor"



Wyrzucamy algorytm Gutmanna do kosza.


Poprawne nieodwracalne usuwanie danych jest mocno niedocenianym aspektem cyberbezpieczeństwa. Z jednej strony zaniedbania w zakresie odpowiedniego niszczenia informacji często skutkują wyciekami danych, z drugiej brak dostatecznej wiedzy technicznej na temat fizyki zapisu i przechowywania danych uniemożliwia optymalizację procesu ich usuwania i naraża organizacje na wysokie koszty zbędnej nadmiarowości wynikającej z procedur niszczenia danych.
Nadpisywanie danych jest jedną z najtańszych metod niszczenia informacji. Jest możliwe do samodzielnego przeprowadzenia z wykorzystaniem szerokiej gamy oprogramowania, w tym i darmowego. W dodatku nadpisane nośniki nie ulegają zniszczeniu u mogą być nadal eksploatowane. Ma to znaczenie nie tylko ekonomiczne, ale jest też istotne z punktu widzenia ograniczania wytwarzania elektroodpadów i ochrony srodowiska. Tym niemniej wciąż podnoszone są wątpliwości co do skuteczności nadpisywania danych i wciąż ta metoda jest postrzegana, jako mniej bezpieczna od fizycznego zniszczenia nośnika.
Na ile te obawy są uzasadnione? I jakie warunki powinny być spełnione, by uznać, że dane na dysku zostały nieodwracalnie zniszczone? Odpowiedzi na te pytania udziela Peter Gutmann w swoim artykule Secure Deletion of Data from Magnetic and Solid State Memory. W tym samym artykule Gutmann proponuje swój słynny 35-przebiegowy algorytm nadpisywania danych. Na ile odpowiedzi udzielone przez Gutmanna są adekwatne do procesów fizycznych rzeczywiście przebiegających w dyskach twardych? I ile tak naprawdę razy trzeba nadpisywać dane, by je zniszczyć?
Prezentacja Wyrzucamy algorytm Gutmanna do kosza została przedstawiona w dniu 20 października 2023 r. na konferencji The H@ck Summit. Opis do niej możesz znaleźć na Elektrodzie.