Tirar el algoritmo de Gutmann a la basura


Tirar el algoritmo de Gutmann a la basura.



Información básica sobre la destrucción de datos.



La eliminación correcta de datos es un aspecto importante, aunque a menudo descuidado y poco comprendido, de la seguridad de la información. La necesidad de eliminar datos de forma segura e irreversible de tal manera que otros no puedan recuperarlos puede surgir por varias razones. A menudo se rige por legislación, como el GDPR (Reglamento general de protección de datos), o leyes que protegen los secretos de estado u obligan a las entidades privadas a proteger también ciertas categorías de información. También puede surgir de contratos y acuerdos que regulan los términos de cooperación y definen el alcance de los secretos comerciales. Y a veces, sin ninguna obligación, queremos proteger nuestros intereses y nuestra privacidad y no deseamos que personas ajenas sepan todo sobre nosotros. La eliminación de datos también tiene su lado oscuro en términos de ocultar y destruir pruebas digitales de delitos. Esto también se puede hacer sabia y eficazmente o tontamente e ineptamente.
En este artículo, me refiero a la publicación de Peter Gutmann "Secure Deletion of Data from Magnetic and Solid-State Memory." presentada en la conferencia "USENIX" en julio de 1996. Es la publicación más citada en el contexto de la sobrescritura de datos y la base de uno de los algoritmos más populares para destruir información. En algunos círculos, la obra de Peter Gutmann ha alcanzado el nivel de dogma religioso y se le considera una autoridad incuestionable. Sin embargo, esta publicación contiene una serie de tesis y suposiciones que plantean dudas sobre si su autor realmente comprende el funcionamiento de los discos duros y la física del almacenamiento de información. Y es en estos pasajes en los que nos centraremos más.



Tipos de medios de almacenamiento



Podemos clasificar los soportes de datos de muchas maneras. En concreto, podemos dividirlos en analógicos y digitales. Un medio de almacenamiento digital es aquel que almacena información de una manera que las máquinas pueden entender, como una secuencia de estados lógicos interpretados como ceros y unos. Otros soportes de datos se denominan soportes de datos analógicos. Sin embargo, incluso en el caso de los medios digitales, la base para determinar los estados lógicos son ciertos estados físicos analógicos digitalizados mediante procesos de codificación y decodificación. El proceso mismo de interpretar los estados físicos como estados lógicos específicos sigue una convención aceptada.
El criterio más comúnmente aceptado para clasificar los medios de almacenamiento es precisamente los fenómenos físicos que subyacen a su interpretación como estados lógicos. En cuanto a la tecnología de almacenamiento de datos, podemos distinguir entre medios:

MAGNÉTICO:
Unidades de disco duro (HDD),
disquetes (FDD),
cintas magnéticas (Linear Tape Open - LTO),

ÓPTICO:
Discos compactos (CD),
Discos de versatilidad digital (DVD),
Blu-Ray (BD-R),
DVD de alta definición (HD-DVD),

SEMICONDUCTORES:
Unidades de estado sólido (SSD),
memoria USB,
tarjetas de memoria (SD, CF, MMC, xD, SM, MSPro...),
Memorias Flash-NAND integradas (eMMC, MCP...),

RESISTADOR:
Memoria de acceso aleatorio de cambio de fase (PCRAM),
Memoria de acceso aleatorio magnetorresistiva (MRAM),
Memoria de acceso aleatorio electroquímico ReRAM,
NanoRAM,

PAPEL:
tarjetas perforadas.
tiras perforadas.

Desde el punto de vista de la destrucción de información, es importante clasificar los soportes de datos en no volátiles (independientes de la energía, capaces de almacenar datos a largo plazo y durante varios años, incluso sin conexión a una fuente de energía) y volátiles (que requieren un suministro continuo). del poder para sostener estados lógicos). Estos últimos incluyen DRAM (Dynamic Random Access Memory memoria dinámica de acceso aleatorio) y SRAM (Static Random Access Memory memoria estática de acceso aleatorio). En el caso de medios volátiles, basta con desconectar brevemente la fuente de alimentación para borrar los datos de forma irreversible. Luego pierden sus estados lógicos, razón por la cual no los analizaremos más.
Los soportes de datos también se pueden dividir en soportes regrabables y de escritura única (no regrabables). Los medios de escritura única solo se pueden escribir una vez. Su contenido no se puede cambiar posteriormente. Los ejemplos más típicos de medios no regrabables son los CD-ROM y los DVD-ROM. Con esta categoría de medios, no es posible destruir los contenidos reemplazándolos con otros contenidos, y es necesario destruir físicamente el medio para eliminar la información. En el caso de los soportes regrabables, por el contrario, su contenido se puede modificar, si no, un gran número de veces, lo que permite utilizar la sobrescritura de datos como método para destruir información.



Estándares que rigen la destrucción de datos



La destrucción de datos se rige por varios estándares desarrollados por diversas instituciones gubernamentales, militares y científicas. Estos estándares describen diferentes métodos y clasifican de diferentes maneras la información que debe destruirse, prescribiendo a menudo diferentes métodos de destrucción de datos según el contenido del medio. Sin embargo, si nos damos cuenta de que la interpretación de los datos tiene lugar al nivel de las estructuras lógicas de los sistemas de archivos y del software, podemos comprender fácilmente que el contenido de los datos no influye en el proceso de destrucción. Desde el punto de vista del medio de almacenamiento y la física del almacenamiento, no existe una diferencia significativa entre los diferentes flujos de ceros y unos, independientemente de cómo los interpretemos a nivel lógico y qué significado subjetivo les asignemos.
Los estándares que describen la destrucción de datos contienen una serie de discrepancias en diversas formas de evaluar la efectividad de los diferentes métodos de destrucción de datos. En algunos casos, se recomiendan procedimientos que implican destrucción de datos en varias etapas utilizando diferentes métodos. Este enfoque también es popular en muchos procedimientos internos basados ​​en diferentes estándares, a veces dictados por la necesidad de garantizar el cumplimiento de múltiples regulaciones. Una lectura detallada de las normas revela una serie de momentos en los que se pueden tener dudas sobre el nivel de comprensión de los autores de las normas con respecto al funcionamiento de los soportes de datos, e incluso algunas recomendaciones parecen haber sido transcritas directamente del regulaciones que rigen la destrucción de documentos en papel, pero dicho análisis de las recomendaciones contenidas en las normas siguientes está más allá del alcance de este artículo.
A continuación encontrará una lista de los estándares más populares y utilizados que describen la destrucción de datos:

1. AFSSI-5020 (Air Force System Security Instruction 5020),
2. CSEC ITSG-06 (Communication Security Establishment Canada, Information Technology Security Guide - 06),
3. HMG-IS5 (Her/His Majesty Government Infosec Standard 5),
4. IEEE 2883-2022 (Institute of Electrical and Electronics Engineers, Standard for Sanitizing Storage),
5. NAVSO P-5239-26 (Navy Staff Office Publication 5239-26, Information Systems Security Program Guidelines),
6. NISPOM DoD 5220.22-M (National Industrial Security Program Operating Manual, Department of Defence 5220.22-M),
7. NIST SP 800-88 (National Institute of Standards and Technology, Guidelines for Media Sanitization),
8. NSCS-TG-025 (National Computer Security Center, Technical Guidelines 025, A Guide to Understanding Data Remanence in Automated Information Systems),
9. RCMP TSSIT OST-II (Royal Canadian Mounted Police, Media Sanitation of the Technical Security Standards for Information Technology),
10. VSITR (Verschlusssachen IT Richtlinien),
11. ГОСТ Р50739-95 (Средства вычислительной техники. Защита от несанкционированного доступа к информации. Общие технические требования),



Métodos de destrucción de datos.



Las normas antes mencionadas clasifican los métodos de destrucción de datos de diferentes formas, pero desde un punto de vista técnico y de cara a nuestro objetivo, es importante dividir estos métodos en efectivos e ineficaces. Podemos considerar que un método de destrucción de datos es eficaz si, después de su uso, la recuperación de datos es imposible, utilizando métodos de recuperación de datos conocidos y disponibles y métodos que potencialmente podrían desarrollarse en el futuro. Los métodos restantes, que también dejan sólo posibilidades teóricas de recuperación de datos, son métodos ineficaces.
Al adoptar esta definición de la eficacia de los métodos de destrucción de datos, podemos sacar dos conclusiones prácticas para optimizar los procedimientos de destrucción de datos. En primer lugar, podemos descartar como esfuerzos innecesarios y costosos todos los métodos de destrucción de datos ineficaces porque no contribuyen al objetivo. En segundo lugar, podemos limitar el procedimiento a un método eficaz seleccionado porque es suficiente para la destrucción de datos.
Con este enfoque, podemos centrarnos en identificar métodos eficaces de destrucción de información para determinadas categorías de medios. Debemos tener en cuenta que la efectividad de los métodos de destrucción de datos puede variar dependiendo de la tecnología utilizada para almacenar la información. Por ejemplo, la desmagnetización puede ser efectiva para medios magnéticos, pero no funcionará para medios semiconductores u ópticos.
Los métodos de destrucción de datos también se dividen en métodos de hardware (físicos) y de software (lógicos). Los métodos basados ​​en hardware implican actuar sobre los medios de tal manera que sus contenidos sean ilegibles. Sin embargo, es importante tener en cuenta que destruir o dañar medios no es lo mismo que destruir información; por lo tanto, no todos los daños en el disco hacen que la recuperación de datos sea imposible. Por el contrario, las empresas especializadas en la recuperación de datos suelen recuperar información de soportes dañados en el hardware, también de forma deliberada con la intención de destruir su contenido, y en muchos casos para los que no se han desarrollado métodos prácticos de recuperación de datos, existe una base teórica para desarrollar estos métodos en el futuro.
Los métodos basados ​​en software, por otro lado, tienen como objetivo destruir la información misma sin dañar los medios. A diferencia de los métodos físicos, permiten la destrucción selectiva de datos seleccionados sin destruir todo el contenido del medio. Estos métodos se reducen a la destrucción de datos reemplazándolos con otro contenido, es decir, sobrescribiéndolos. Si no se sobrescriben los datos, sino solo se eliminan los metadatos que describen estos datos en las estructuras lógicas del sistema de archivos, la información en sí es recuperable.
Sin embargo, todavía surgen dudas sobre la recuperabilidad de los datos sobrescritos. La controversia más a menudo se relaciona con la cantidad de pasadas de sobrescritura necesarias para una destrucción adecuada de los datos. A veces también se llama la atención sobre los patrones de sobrescritura utilizados. Estas dudas a menudo se ven alimentadas por materiales de marketing diseñados para engañar a los usuarios para que elijan un método o herramienta de destrucción de datos en particular, generalmente desacreditando alternativas.
Los conceptos de métodos destinados a permitir la recuperación de datos sobrescritos surgieron a finales de los años 1980 y principios de los 1990. En aquel momento se llevaron a cabo una serie de estudios destinados principalmente a recuperar el estado de magnetización previo de la capa magnética mediante microscopía de fuerza magnética, entre los que merece especial atención el trabajo del equipo liderado por Romel Gómez.
Menos populares fueron los estudios osciloscópicos de la señal capturada del bloque del cabezal magnético. El artículo de Peter Gutmann es una especie de resumen del trabajo realizado a finales de los 80 y primera mitad de los 90 y propone una solución para disipar las dudas sobre la eficacia de la sobrescritura de datos.

Los métodos físicos de destrucción de datos incluyen:
mecánico (desde martillar y escariar hasta triturar el medio con trituradoras especiales),
térmico (desde arrojarlo al fuego y asarlo en un horno hasta fundirlo en hornos metalúrgicos),
químico (que actúa sobre los medios con varios productos químicos),
desmagnetización (interacción del medio con un campo magnético),
inductivo (utiliza diferentes tipos de radiación, por ejemplo, UV, ionizante, microondas),
pirotecnia (utilizar materiales pirotécnicos y explosivos).

Los métodos del programa, son:
tirar archivos a la papelera del sistema (mover a un directorio especial, un método obviamente ineficaz),
eliminar a nivel de metadatos del sistema de archivos (la posibilidad de recuperación de datos depende de muchos factores, por ejemplo, el tipo de medio y el funcionamiento de la función TRIM),
formateo de particiones (la eficacia depende del método de formateo, así como del tipo de medio, soluciones de firmware, compatibilidad con TRIM, etc.),
sobrescritura (pasada única o múltiple utilizando diferentes tipos de patrones de sobrescritura; de eso trata este artículo),
Borrado seguro (procedimiento de limpieza de medios implementado a nivel de firmware),
Borrado de bloques (un procedimiento de borrado de bloques físicos implementado en el firmware de los medios semiconductores).

A continuación nos centraremos en la eficacia de la sobrescritura de datos como método de destrucción de información almacenada en los discos duros, porque esta cuestión constituye una parte esencial de las consideraciones contenidas en el artículo de Peter Gutmann. Me referiré a pasajes seleccionados de este artículo que indican que la comprensión del autor sobre ciertas cuestiones es inadecuada y conduce a conclusiones erróneas. También llamaré la atención sobre algunas tesis muy exageradas utilizadas para justificar la necesidad de sobrescribir múltiples datos para garantizar la eficacia del método.



Lo que Peter Gutmann escribió sobre...



Bit en grabación magnética



"... when a one is written to disk the media records a one, and when a zero is written the media records a zero. However the actual effect is closer to obtaining a 0.95 when a zero is overwritten with a one, and a 1.05 when a one is overwritten with a one."

"... cuando se escribe un uno en el disco, los medios graban un uno, y cuando se escribe un cero, los medios registran un cero. Sin embargo, el efecto real está más cerca de obtener un 0,95 cuando un cero se sobrescribe con un uno, y un 1.05 cuando un uno se sobrescribe con un uno."

Para abordar esta suposición, necesitamos saber qué constituye físicamente un bit en la grabación magnética. Qué estado físico representa un cero lógico y qué estado representa un uno. Para entender esto, veamos primero cómo se leen los medios magnéticos.
Los datos de los medios magnéticos se leen mediante cabezales que flotan sobre una superficie magnetizada (en el caso de los discos duros) o se mueven a lo largo de ella (en el caso de las cintas magnéticas, los disquetes y algunos modelos de los discos duros más antiguos de principios de días de este tipo de construcción). La superficie magnetizada que se mueve debajo de la cabeza induce una forma de onda eléctrica. Los pulsos en esta forma de onda son inducidos por un campo magnético alterno. Y son estos impulsos los que se interpretan como lógicos. Por el contrario, un cero lógico es la ausencia de tal impulso.
Entonces, ¿qué es un área con un campo magnético constante y variable? En cualquier cuerpo que presente propiedades magnéticas, podemos distinguir áreas de magnetización homogénea: dominios magnéticos. Estos dominios están separados entre sí por paredes de dominio, áreas donde se invierte el vector de polarización de la magnetización. Y son estas paredes las que son áreas de magnetización alterna que inducen pulsos que denotan impulsos lógicos, mientras que los dominios mismos son áreas de magnetización constante.
La grabación magnética implica darle al medio un orden de magnetización superficial específico y deseado. En este proceso, los dominios pueden invertir su polaridad, pero también cambiar su tamaño. Los muros de dominio pueden cambiar, desaparecer o pueden formarse nuevos muros de dominio, lo que resulta en la separación de nuevos dominios. Para hablar de una lógica sobrescrita por otra, después de remagnetizar la superficie, la pared del dominio tendría que estar exactamente en el mismo lugar que otra pared del dominio en la magnetización anterior. Por tanto, en la práctica, no es posible afirmar de forma inequívoca que un uno lógico ha sido sobrescrito por un uno o un cero.
La polarización previa de la magnetización puede afectar la forma y el ancho de las paredes del dominio y, por tanto, la forma de los pulsos inducidos por ellas. Este problema lo describe en detalle Serhiy Kozhenevsky (Сергій Коженевський) en su libro 'Перезапись Информации'. Sin embargo, si quisiéramos recuperar los datos sobrescritos de esta manera, no es la polaridad previa de la magnetización del dominio lo que debería interesarnos, sino la disposición previa de las paredes del dominio. Los resultados de los estudios con osciloscopio descritos no indican que fuera posible determinar con suficiente precisión la disposición de las paredes del dominio en el estado antes de la sobrescritura.
Además, no debemos olvidar otros factores que influyen en la altura de las amplitudes del pulso. Depende en gran medida de la distancia entre las paredes del dominio. Cuanto más cerca estén entre sí, menores serán las amplitudes de señal inducidas por ellos. Las desviaciones también dependen de las propiedades locales de la superficie magnética y del estado de la estructura cristalina. El estado de magnetización de la superficie y los parámetros de la señal a leer también se ven afectados por campos magnéticos externos y fluctuaciones en la temperatura y la tensión de alimentación del disco duro.
En el caso de la grabación magnética perpendicular, una fuente muy importante de ruido electromagnético es la capa inferior blanda (SUL - Soft Underlayer) utilizada para encerrar las líneas de campo inducidas por el cabezal de grabación. En el momento en que se escribió el artículo de Gutmann, los discos duros sólo utilizaban grabación paralela, pero hoy en día todos los discos duros utilizan grabación perpendicular. Filtrar los efectos de los factores mencionados anteriormente en la forma de onda de la señal para aislar la interferencia debida únicamente al estado de magnetización anterior es tanto más difícil cuanto que algunos de estos factores dependen de condiciones externas que no pueden reproducirse fielmente.



Codificación de datos en unidades de disco duro.



Lo anterior, así como las citas posteriores del artículo de Peter Gutmann, indican que es posible que no comprenda el proceso de codificación de datos en los discos duros. De hecho, de toda su publicación uno da la impresión de que los datos se almacenan en el disco en una secuencia sin procesar y sin procesar de unos y ceros que la computadora envía a la interfaz del disco. Esto es tanto más extraño cuanto que al mismo tiempo él mismo menciona varios métodos de codificación de datos e incluso intenta hacer coincidir los patrones de sobrescritura de su algoritmo con ellos.
En realidad, los datos almacenados en el disco son datos codificados que no se parecen en absoluto al flujo de datos de entrada. Dado que los datos son susceptibles a errores y tergiversaciones en cada etapa del procesamiento y almacenamiento, comúnmente se utilizan diversas salvaguardas en forma de sumas de verificación y códigos de corrección de errores (ECC - Error Correction Code). Los datos almacenados en el disco también están protegidos por códigos de corrección apropiados. Los detalles han evolucionado con el tiempo y también varían entre las unidades de los fabricantes, pero para nuestros propósitos es suficiente saber que dichos códigos existen y que se calculan y se adjuntan a cada sector del disco cuando se escribe para proteger el contenido.
/Los datos almacenados en el disco también son aleatorios. El objetivo de la aleatorización es romper largas secuencias de símbolos repetitivos. Las secuencias largas de los mismos símbolos o secuencias repetidas de símbolos pueden contribuir a fenómenos ondulatorios desfavorables en el canal de escritura y lectura, como ondas estacionarias, reflexiones de ondas o armónicos parásitos. También pueden causar interferencia entre símbolos (ISI - Inter Symbol Interference): cambios entre símbolos individuales en el flujo de datos. Y debido a que las pistas almacenadas en la superficie del plato son adyacentes a otras pistas, existe una interferencia inductiva entre ellas llamada Interferencia entre pistas (ITI - Inter Track Interference). La aleatorización ayuda a reducir el impacto de esta interferencia.
La etapa más importante de la codificación de datos, desde nuestro punto de vista, es preparar los datos que se escribirán en el plato. El primer método de codificación de información utilizado en las unidades de disco duro fue FM (Frequency Modulation - modulación de frecuencia). Esto implicó escribir pulsos de una señal de reloj e insertar bits de datos entre ellos. Si el bit era un "1", se insertaba un pulso adicional entre los pulsos del reloj, si era un "0" lógico, no.
Este era un método ineficiente en el que el bit '0' se codificaba con un dominio magnético más largo y el '1' con dos más cortos. Con el tiempo, se intentó optimizarlo con la introducción del método MFM (Modified Frequency Modulation - Modificación de frecuencia modificada), en el que se mejoró la densidad de almacenamiento reduciendo el número de pulsos de los componentes del reloj. Sin embargo, la verdadera revolución llegó con la codificación RLL (Run Lenght Limited), que permitió la eliminación completa del componente de reloj y aumentó la densidad de empaquetado de datos a varios bits por dominio magnético.
La codificación RLL es una codificación con sincronización automática. Consiste en colocar una determinada cantidad de ceros entre cada pulso, calculados por el chip decodificador en función de la distancia entre los pulsos. Esto significa que un dominio puede codificar varios bits, y el número de ceros entre unos depende de la longitud del dominio. El número mínimo y máximo de ceros que pueden aparecer entre unos se determina teniendo en cuenta factores que afectan la frecuencia de la señal (tamaños alcanzables de dominios magnéticos estables, velocidad del plato, etc.), la sensibilidad de los cabezales de lectura y la capacidad de el chip decodificador para procesar la señal y la corrección de errores mediante códigos ECC para minimizar la aparición de errores de lectura o desincronización de la señal. Al mismo tiempo, dado que un dominio magnético debe ocurrir entre dos paredes de dominio, no pueden ocurrir dos lógicos consecutivamente en la codificación RLL; siempre deben estar separados por al menos un cero. Como los datos reales rara vez cumplen esta condición, deben recalcularse utilizando matrices apropiadas. Por lo tanto, intentar recuperar bits individuales literales es imposible, y los intentos de recuperar otras pequeñas porciones de datos se ven obstaculizados por la necesidad de abordar y decodificar adecuadamente estos fragmentos.
Puede obtener más información sobre la codificación de datos en el libro del desarrollador de códigos RLL Cornelius (Kees) Antoin Schouhammer Immink "Codes for Mass Data Storage Systems", así como en Bane Vasić y Erozan M. Kurtas "Coding and signal processing for magnetic recording systems". Si desea obtener más información sobre el proceso de codificación de datos, es posible que también le interese el trabajo de Charles Sobey sobre la recuperación de datos independiente del disco. El proceso de estudiar platos magnéticos y decodificar datos independientemente del disco también se describe en el libro de Isaac D. Mayergoyz y Chun Tse "Spin-stand Microscopy of Hard Disk Data".



Unidad mínima de direccionamiento



"...when data is written to the medium, the write head sets the polarity of most, but not all, of the magnetic domains. This is partially due to the inability of the writing device to write in exactly the same location each time, and partially due to the variations in media sensitivity and field strength over time and among devices."

"... cuando los datos se escriben en el medio, el cabezal de escritura establece la polaridad de la mayoría, pero no de todos, los dominios magnéticos. Esto se debe en parte a la incapacidad del dispositivo de escritura para escribir exactamente en la misma ubicación cada vez. , y en parte debido a las variaciones en la sensibilidad de los medios y la intensidad del campo a lo largo del tiempo y entre dispositivos."

Basándonos en lo que ya sabemos sobre la codificación de datos, podemos concluir que los cabezales no escriben dominios magnéticos individuales individualmente durante el funcionamiento. Esto no sería coherente con el sistema de codificación RLL, en el que el número de ceros lógicos entre unos está determinado por la distancia entre paredes de dominio consecutivas (la longitud del dominio), por lo que al escribir otros datos las longitudes de los dominios deben cambiar.
Además, técnicamente no es posible abordar dominios magnéticos individuales. Parte de la superficie del plato está dedicada a la información necesaria para garantizar el correcto funcionamiento del disco. Esta categoría incluye, entre otros, los servosectores que permiten una correcta identificación de la pista y el control de la trayectoria del cabezal sobre su centro, así como los cabezales de sector que permiten su correcto direccionamiento.
Y son los sectores (antes 512 B, en la variante moderna "Formato avanzado" - 4 kB de datos de usuario) la unidad mínima de direccionamiento. Para tener una idea de esto, es posible que desee consultar los estándares ATA y SCSI, que se desarrollaron a mediados de la década de 1980 y desde entonces han sido los documentos principales que describen el funcionamiento de las unidades de disco duro y garantizan su compatibilidad. Si bien estas normas han evolucionado a lo largo de las décadas, nunca han previsto abordar unidades distintas de los sectores.
Y así es como funcionan los discos. Incluso si desea cambiar un solo bit de un sector, esto requiere la codificación adecuada de todo el sector y la formación de la forma de onda de la señal electromagnética correspondiente, que luego se almacena en la ubicación física adecuada. Si quieres ver esto en la práctica, crea un pequeño archivo de texto. Localízalo y comprueba en el editor hexadecimal cómo se ve su contenido. Puede cambiar los ceros al final del archivo por otro contenido para ver si se conservará cuando edite el archivo. Luego edite este archivo en el bloc de notas y verifique el contenido del sector en el editor hexadecimal. Verá que el resto del contenido del sector anterior más allá del tamaño del archivo será reemplazado por ceros. Por lo tanto, las afirmaciones sobre escribir, leer, recuperar o direccionar bits individuales son una tontería.



Seguimiento de la pista



"Deviations in the position of the drive head from the original track may leave significant portions of the previous data along the track edge relatively untouched."

"Las desviaciones en la posición del cabezal de accionamiento con respecto a la vía original pueden dejar partes significativas de los datos anteriores a lo largo del borde de la vía relativamente intactas"

Esta afirmación tenía sentido en una época en la que los discos duros todavía utilizaban motores paso a paso para posicionar el bloque del cabezal magnético. Un motor paso a paso, como su nombre indica, siempre gira en un paso preestablecido o en un múltiplo del mismo. No es posible configurarlo en posiciones intermedias. Y esta característica de los motores paso a paso conllevaba el riesgo de escribir una pista con un desplazamiento fijo respecto de la posición anterior, por ejemplo debido a la incapacidad de compensar las diferencias en la expansión de temperatura de los componentes individuales del disco. Por este motivo, se recomendó ejecutar la unidad durante al menos media hora antes de realizar el formateo de bajo nivel para garantizar que todos los componentes se calienten de manera uniforme.
El proceso de sustitución de motores paso a paso por motores lineales (Voice Coil Motors - VCM) comenzó a mediados de la década de 1980 y cuando Peter Gutmann publicó su artículo, había llegado a su fin. Kalok, la última empresa que fabricó discos duros con motores paso a paso, quebró en 1994. Dos años son tiempo suficiente para que la publicación reconozca al menos la presencia en el mercado de discos duros con cabezales magnéticos ajustables continuamente con motores lineales o al menos lo haga. Está claro que la afirmación citada anteriormente se refiere a accionamientos con motores paso a paso.
Los motores lineales (VCM) se construyen a partir de una bobina colocada entre dos imanes permanentes. Un campo eléctrico alterno inducido por la corriente que fluye a través de una bobina colocada en un campo magnético fijo induce el movimiento de esta bobina con respecto a los imanes. Normalmente, los posicionadores giran alrededor de un eje y mueven los cabezales sobre la superficie de los platos formando un arco, pero en el pasado también se han utilizado soluciones basadas en el movimiento alternativo de la bobina. Sin embargo, esta solución era más complicada y ocupaba más espacio dentro de la caja, por lo que fue rápidamente abandonada.
Reemplazar los motores paso a paso por motores lineales ha obligado a realizar cambios en el subsistema de posicionamiento del cabezal y seguimiento de la pista. El posicionamiento continuo del cabezal abre posibilidades para un seguimiento preciso del cabezal sobre el centro de la pista, pero también requiere retroalimentación para controlar su posición sobre el plato. Los sectores servo espaciados a intervalos iguales en las superficies del plato sirven para este propósito. El número de sectores de servo varía según los modelos de unidad. En muchos casos, podrás comprobarlo en Victoria. Si el programa muestra el parámetro "Cuñas" en el pasaporte del variador, este es el número de sectores del servo.
Los sectores de servo contienen una variedad de información para identificar el número de la pista que se está leyendo, controlar la velocidad de los platos, sincronizar correctamente la señal y mantener la trayectoria del cabezal sobre el centro de la pista. Dado el propósito de este artículo, nos centraremos en este último. Cada sector servo contiene campos de servo-ráfagas que generan una señal de error de posicionamiento (PES - Positioning Error Signal, СОП - Сигнал Ошибки Позиционирования). Esta señal permite determinar en qué dirección y en qué medida se desvía el cabezal del centro de la pista.
Según la señal de error de posicionamiento, el procesador de señales puede emitir un comando al controlador del motor para ajustar la posición del cabezal. Dado que normalmente en las unidades de disco duro el número de sectores de servo supera los 100 por pista, en la práctica no es posible mantener de forma estable el vuelo del cabezal a lo largo del borde de la pista. Si hay una desviación del cabezal del centro de la pista, el mecanismo de posicionamiento buscará corregir su posición lo más rápido posible. Incluso si la compensación encuentra alguna dificultad, es mucho más probable que la cabeza oscile cerca del centro de la pista que vuele a lo largo de uno de sus bordes.
Por supuesto, es posible hacer un registro con un desplazamiento desde el centro de la pista de modo que un registro posterior deje intactas pequeñas porciones de la magnetización anterior, pero a medida que aumenta la densidad de grabación, tal situación es cada vez menos improbable. También es extremadamente improbable que tales desviaciones den como resultado que se dejen intactas "porciones significativas de datos anteriores". Si lo hacen, serán como mucho pequeños fragmentos difíciles de abordar y decodificar, así como de determinar cuándo se crearon estos registros. Según la información indicada anteriormente en este artículo, ya sabemos que para poder decodificar prácticamente los datos recuperados del borde de la pista, necesitaríamos tener al menos un sector coherente completo a nuestra disposición.
En los discos duros de densidad ultraalta actuales, el riesgo de que fragmentos de datos antiguos queden en el borde de una pista es insignificante. Además, una señal de este tipo se vería fuertemente perturbada por la influencia de la magnetización en las pistas adyacentes. En el caso de unidades que utilizan SMR (Shingled Magnetic Recording), este riesgo se elimina por completo mediante la sobrescritura parcial de las pistas anteriores cuando se escriben las siguientes. Además, se utilizan soluciones de posicionamiento y control de la posición del cabezal mucho más sofisticadas, como los posicionadores multietapa. Sin embargo, incluso con discos de la primera mitad de los años 90, nadie ha logrado demostrar un ejemplo práctico de recuperación de datos sobrescritos leídos desde el borde de una pista.
El tema de la servomecánica de la unidad de disco duro, la búsqueda y seguimiento de pistas y el control de la velocidad del motor es demasiado amplio para tratarlo con más detalle aquí. Ha sido tratado en varios libros, entre los que cabe destacar:

"Механика и сервосистема" de Serhiy Kozhenevsky (Сергій Коженевський),
"Hard Disk Drive Mechatronics and Control" de Abdullah al-Mamun, Guoxiao Guo and Chao Bi,
"Hard Disk Drive Servo Systems" de Ben M. Chen, Tong H. Lee, Kemao Peng and Venkatakrishnan Venkataramanan.



Remagnetización de la capa magnética



"When all the above factors are combined it turns out that each track contains an image of everything ever written to it, but that the contribution from each 'layer' gets progressively smaller the further back it was made."

"Cuando se combinan todos los factores anteriores, resulta que cada pista contiene una imagen de todo lo escrito en ella, pero que la contribución de cada 'capa' se vuelve progresivamente menor a medida que se hace más atrás."

Probablemente todo el mundo haya oído la analogía entre sobrescribir datos y borrar inscripciones en papel con un lápiz. Sí, las anotaciones originales en una hoja de papel son visibles durante mucho tiempo e incluso si se borran con cuidado, aún puedes intentar leer sus fragmentos o adivinar símbolos individuales. Y parece que Peter Gutmann también sucumbió a la magia de esta analogía. ¿Pero tiene algún sentido en relación con la grabación magnética?
Los cabezales no añaden ninguna capa nueva durante la grabación, pero cambian el orden de magnetización de una capa magnética. La remagnetización no impone un nuevo registro sobre el anterior, sino que lo destruye ordenando la secuencia de muros de dominio de otra manera. Por lo tanto, esta acción es mucho más similar a, por ejemplo, cambiar símbolos hechos de cerillas reorganizándolas, y la analogía con cubrir las entradas en papel con crayones es al menos inadecuada.
Pero, ¿son realmente capaces las cabezas de destruir irreversiblemente el registro magnético anterior? Aquí debemos prestar atención a la relación entre el valor del campo inducido por las cabezas y la coercitividad de la capa magnética, es decir, el valor del campo necesario para remagnetizarla. La coercitividad de las aleaciones de cobalto utilizadas habitualmente en los discos duros es de aproximadamente 0,5 T. Por el contrario, los cabezales magnéticos son capaces de inducir campos de más de 2 T. Además, las capas magnéticas son demasiado finas (su espesor se cuenta en decenas de nm) para que dos o más capas de dominios con diferentes polaridades de magnetización funcionen de manera estable dentro de ellos. En comparación, los desmagnetizadores que inducen campos de aproximadamente 1 T son suficientes para destruir datos en el proceso de desmagnetización, aunque los platos estén protegidos por elementos de carcasa metálica.
Vale la pena aprovechar esta oportunidad para llamar la atención sobre los discos de grabación asistida por energía que acaban de aparecer en el mercado: HAMR (Heat-Assisted Magnetic Recording grabación magnética asistida por calor) y MAMR (Microvawe-Assisted Magnetic Recording grabación magnética asistida por microondas). Se trata de discos que utilizan aleaciones de hierro y platino con una coercitividad de aproximadamente 6 T como capa magnética. El campo inducido por los cabezales de grabación es claramente demasiado débil para remagnetizar la capa magnética, por lo que la grabación debe estar respaldada por una fuente de energía adicional para calentar localmente la superficie de los discos a una temperatura cercana al punto de Curie. El punto Curie, es la temperatura característica de un material magnético a la que pierde su magnetización y por tanto es mucho más fácil de remagnetizar. Esta información es importante para la destrucción de datos mediante desmagnetización, ya que los discos de grabación asistidos por energía serán resistentes a los populares desmagnetizadores actuales y será necesario desarrollar nuevos dispositivos para destruirlos.



Un puente muy lejos...



"The general concept behind an overwriting scheme is to flip each magnetic domain on the disk back and forth as much as possible (this is the basic idea behind degaussing) without writing the same pattern twice in a row."

"El concepto general detrás de un esquema de sobrescritura es voltear cada dominio magnético del disco hacia adelante y hacia atrás tanto como sea posible (esta es la idea básica detrás de la desmagnetización) sin escribir el mismo patrón dos veces seguidas."

¿Por qué Peter Gutmann mezcla aquí la sobrescritura de datos con la desmagnetización? Podemos considerar la magnetización de una sustancia magnética en dos aspectos. A escala macro, consideraremos que un cuerpo está magnetizado si él mismo induce un campo magnético. Tendrá una magnetización distinta de cero, que es la magnetización resultante de sus dominios magnéticos. En este sentido, las placas magnéticas no están magnetizadas. Esto se puede verificar fácilmente observando cómo los platos extraídos de un disco duro interactúan con metales que deberían responder a la magnetización externa.
En la nanoescala, todo cuerpo magnético está magnetizado de alguna manera. Si la magnetización no es impartida por un campo magnético externo, los dominios magnéticos surgen espontáneamente y los campos inducidos por ellos se anulan entre sí. La grabación magnética consiste en disponer los dominios magnéticos de tal forma que representen los estados lógicos que queremos, que podemos interpretar como información concreta. Un disco duro en funcionamiento siempre tiene una magnetización ordenada, siempre contiene alguna información e incluso si lo consideramos vacío a nivel de estructuras lógicas, siempre podemos ver algunos valores en el editor hexadecimal.
La desmagnetización implica aplicar un impulso electromagnético de tal manera que se destruya este orden, con la consecuencia de que los dominios del plato permanecen en un estado de magnetización caótica. Esta magnetización no es interpretable, por lo que no se puede leer nada en los platos, los cabezales no pueden encontrar la señal del servo y el disco se destruye.
Sobrescribir, por el contrario, implica sustituir el orden de magnetización existente por otro, todavía lógicamente interpretable, pero que representa información sin valor. Por lo cual no es necesario cambiar la polaridad de cada dominio magnético para la destrucción de datos. Basta con que los dominios magnéticos estén alineados de forma diferente a como estaban originalmente.
La desmagnetización y la sobrescritura son dos métodos diferentes de destrucción de datos, en los que el objetivo se consigue por diferentes medios. En el caso de la desmagnetización, se trata de un dispositivo externo que destruye por completo el orden de magnetización, destruyendo así el disco como dispositivo. La sobrescritura, por otro lado, solo cambia el orden de magnetización de los sectores que se van a sobrescribir, dejando intactos la información del área de servicio, los servosectores y los encabezados de los sectores, y permitiendo la destrucción selectiva de datos, como el borrado de archivos seleccionados.



Otro puente demasiado lejos...



"To erase magnetic media, we need to overwrite it many times with alternating patterns in order to expose it to a magnetic field oscillating fast enough that it does the desired flipping of the magnetic domains in a reasonable amount of time. Unfortunately, there is a complication in that we need to saturate the disk surface to the greatest depth possible, and very high frequency signals only "scratch the surface" of the magnetic medium (...). Disk drive manufacturers, in trying to achieve ever-higher densities, use the highest possible frequencies, whereas we really require the lowest frequency a disk drive can produce. Even this is still rather high. The best we can do is to use the lowest frequency possible for overwrites, to penetrate as deeply as possible into the recording medium."

"Para borrar medios magnéticos, necesitamos sobrescribirlos muchas veces con patrones alternos para exponerlos a un campo magnético que oscila lo suficientemente rápido como para realizar el cambio deseado de los dominios magnéticos en un período de tiempo razonable. Desafortunadamente, existe una La complicación es que necesitamos saturar la superficie del disco a la mayor profundidad posible, y las señales de muy alta frecuencia sólo "rayan la superficie" del medio magnético (...) Los fabricantes de unidades de disco, al tratar de lograr densidades cada vez más altas, Utilizamos las frecuencias más altas posibles, mientras que en realidad necesitamos la frecuencia más baja que pueda producir una unidad de disco. Incluso esta sigue siendo bastante alta. Lo mejor que podemos hacer es utilizar la frecuencia más baja posible para sobrescribir, para penetrar lo más profundamente posible en la grabación. medio."

Como ya sabemos, lo importante para la destrucción de datos en el registro magnético no es tanto la inversión de la polaridad de los distintos dominios magnéticos como el desplazamiento de las paredes de los dominios. Además, la frecuencia del campo magnético utilizado para el registro de datos depende principalmente de la frecuencia de la señal a registrar. Dado el proceso de codificación de datos, obtener una señal con la frecuencia más alta posible (que contenga el mayor número posible de unos lógicos en relación con ceros) requeriría una comprensión y consideración de todos los pasos de codificación.
La idea en sí probablemente proviene del método de desmagnetizar cuerpos magnetizados a escala macro. Dado que es muy difícil influir en un cuerpo de este tipo con un campo que corresponda exactamente a su coercitividad para desmagnetizarlo, y es mucho más probable invertir la polarización de la magnetización, la desmagnetización se realiza utilizando un campo de alta frecuencia con intensidad decreciente. . De esta forma, con cada inversión de polaridad, el cuerpo se magnetiza cada vez menos (la remanencia cae desde la saturación a un estado cercano a cero). En el caso de un disco duro, los cabezales de grabación inducen un campo magnético en la superficie del plato que gira debajo de ellos, y el tiempo durante el cual un área determinada puede remagnetizarse depende principalmente de la velocidad de rotación del plato.
En su artículo, Peter Gutmann, por un lado, se refiere con frecuencia a ciertos elementos de la codificación de datos, pero por otro, trata el tema de manera muy superficial y poco sistemática, a menudo extendiéndolo bajo la supuesta tesis de la necesidad de sobrescribir múltiples datos para una destrucción segura. Básicamente ignora los procesos de cambio de tamaño, fusión y división de dominios magnéticos, que son cruciales para la codificación RLL. En cambio, se centra excesivamente en el proceso mismo de invertir su polaridad. Hay una falta de coherencia en sus consideraciones, que ya hemos advertido y veremos más adelante. Además, como mencioné anteriormente, la capa magnética es demasiado delgada para no magnetizarse hasta la saturación en la primera ejecución. Esto es especialmente cierto para la grabación perpendicular, en la que el vector de polarización de magnetización es perpendicular a la superficie del plato, de modo que los propios dominios están alineados verticalmente en la capa magnética.



Códigos de corrección ECC



Therefore even if some data is reliably erased, it may be possible to recover it using the built-in error-correction capabilities of the drive.

Por lo tanto, incluso si algunos datos se borran de manera confiable, es posible recuperarlos utilizando las capacidades integradas de corrección de errores de la unidad.

He aquí otro ejemplo del enfoque excesivamente relajado de Peter Gutmann ante la cuestión de la codificación de datos. La frase anterior sugiere la posibilidad de eliminar el contenido de un sector dejando los códigos de corrección asociados a él. Esto no es posible porque los códigos de corrección se calculan en la etapa de codificación de datos y se agregan al sector antes de que se forme la forma de onda de la señal, que será inducida por el cabezal de grabación y escrita en el plato. Al sobrescribir un sector con otro contenido, también sobrescribiremos los códigos de corrección asociados a los datos originales.
En modelos de disco más antiguos, era posible generar intencionalmente sumas de verificación incorrectas y guardar un sector con códigos de corrección que no coincidían con los datos del usuario. Aunque dichos sectores no se pueden leer correctamente y al intentar leerlos, el disco devuelve un error UNC, los códigos de corrección asociados con el contenido del sector anterior se destruyen y se reemplazan por otros nuevos. Esta posibilidad se implementa, por ejemplo, en el programa MHDD mediante los comandos "MAKEBAD" - creando un sector "malo" en la dirección LBA (Logical Block Addressing) indicada o "RANDOMBAD" - creando sectores "malos" en ubicaciones aleatorias.
Además, Peter Gutmann sobreestima claramente la capacidad de corrección de los códigos ECC. Aunque los códigos de corrección permiten la localización y corrección de errores de bits, esto se aplica a un número limitado de errores que ocurren en sectores existentes y legibles. Normalmente, los códigos de corrección pueden corregir errores de aproximadamente 200 bits por sector y, si la cantidad de errores excede la capacidad del código, la unidad emite un error UNC. Definitivamente esto no es suficiente para intentar reconstruir el contenido de un sector inexistente basándose únicamente en sus códigos de corrección. Debemos recordar que también pueden producirse errores de bits en el propio código de corrección.



Conclusión



"Data which is overwritten an arbitrary large number of times can still be recovered provided that the new data isn't written to the same location as the original data..."

"Los datos que se sobrescriben una cantidad arbitraria de veces aún se pueden recuperar siempre que los nuevos datos no se escriban en la misma ubicación que los datos originales..."

Peter Gutmann se contradice claramente con esta frase. Se supone que los datos sobrescritos cualquier cantidad de veces aún se pueden recuperar, siempre que no se escriban datos nuevos en la misma ubicación. Pero la esencia de la sobrescritura es escribir datos nuevos en lugar de los datos que queremos destruir. Incluso si los nuevos datos son un patrón de sobrescritura que no es interpretable a nivel lógico. Porque para el disco es el mismo flujo de datos que cualquier otro. Y sería muy extraño que Peter Gutmann no lo entendiera. Por otro lado, esta oración socava directamente el punto de sobrescritura de múltiples pasadas y confirma que la primera pasada de sobrescritura destruye los datos.



PRML – Partial Response – Maximum Likelihood – Respuesta parcial – Máxima probabilidad



"The article states that «The encoding of hard disks is provided using PRML and EPRML», but at the time the Usenix article was written MFM and RLL was the standard hard drive encoding technique... "

""El artículo afirma que «La codificación de los discos duros se proporciona mediante PRML y EPRML», pero en el momento en que se escribió el artículo de Usenix, MFM y RLL eran la técnica estándar de codificación de discos duros... ""

En el epílogo, Peter Gutmann hace referencia al artículo de Craig Wright, Dave Kleiman y Ramajad Srinivasan Shyaam Sundhar "Overwriting Hard Drive Data: The Great Wiping Controversy" de 2008. Los autores de esta publicación prácticamente verificaron las suposiciones presentadas por Peter Gutmann y demostraron la imposibilidad de recuperar datos sobrescritos mediante análisis micromagnético de la superficie del plato para buscar rastros de magnetización previa. Aunque los autores de esta publicación abordaron el tema de la codificación de datos de manera bastante vaga, aquí nos ocupamos principalmente del algoritmo de Gutmann y del artículo que lo describe.
Peter Gutmann señala que la investigación de Craig Wright, Dave Kleiman y Ramajad Srinivasan Shyaam Sundhar es inadecuada y no debería cuestionar sus hallazgos porque las unidades que examinaron usaban PRML, mientras que en el momento en que escribió su artículo los métodos estándar de codificación de datos eran MFM y RLL. Esta es una acusación infundada porque PRML no es una técnica de codificación de datos y no reemplaza ni a MFM ni a RLL, sino que se utiliza en la detección y decodificación de señales, reemplazando el antiguo método de detección de picos para detectar picos de pulso. Este método se utiliza desde principios de los años 1990 y, por lo tanto, Peter Gutmann no debería haber sido desconocido en 1996. Sin embargo, el método de codificación MFM fue reemplazado en los discos duros por RLL ya a mediados de los años 1980 y ya a mediados de los años 1990 se utilizó sólo en disquetes.
En las primeras décadas de los discos duros, la densidad de grabación era baja, los dominios eran bastante grandes, por lo que las paredes de los dominios estaban ubicadas a distancias relativamente grandes. Luego dieron pulsos claros con altas amplitudes y picos fáciles de detectar en la señal leída por las cabezas. El aumento de la densidad de grabación resultó en un deterioro de la relación señal-ruido, mientras que la introducción de la codificación RLL eliminó el componente de reloj, lo que aumentó el riesgo de desincronización de la señal y de que el circuito decodificador calculara el número incorrecto de ceros entre unos sucesivos. Luego, el método de detección de picos resultó insuficiente y fue reemplazado por el método PRML.
PRML (Partial Response – Maximum Likelihood) es un método que permite determinar la probabilidad máxima del curso de la señal leída con una respuesta parcial. Este método no se centra en capturar picos de pulso posteriores, sino que analiza toda la forma de onda de la señal y busca determinar la distribución de pulso más probable. PRML, a diferencia de la detección de picos, no utiliza valores umbral de referencia, sino que analiza la forma y la altura de las amplitudes de todos los pulsos y, en base a esto, determina cuáles provienen de la señal grabada y cuáles del ruido de fondo. Se utiliza el conocimiento del método de codificación de datos durante la grabación, lo que permite rechazar variantes de la forma de onda de la señal que son incompatibles con él, p. aquellos que contienen un número mayor o menor de ceros entre dos unos que el permitido para una versión determinada del código RLL.
El cuestionamiento por parte de Peter Gutmann de los resultados de Craig Wright, Dave Kleiman y Ramajad Srinivasan Shyaam Sundhar sobre esta base sólo demuestra que, incluso después de 2008, estaba en desacuerdo con las soluciones en el campo de la codificación de datos y el procesamiento de señales en discos duros. Sugerir que PRML reemplaza la codificación RLL es un error tan grande como decir que SMR reemplazó la grabación perpendicular. Después de la publicación del artículo de Craig Wright, Dave Kleiman y Ramajad Srinivasan Shyaam Sundhar, el interés en la investigación sobre la recuperación de datos sobrescritos mediante microscopía de fuerza magnética prácticamente desapareció. De manera similar, en el caso de los estudios osciloscópicos de la forma de onda de la señal capturada directamente de las cabezas, el trabajo de Serhiy Kozhenevsky (Сергій Коженевський) no proporcionó motivos suficientes para ofrecer esperanzas razonables sobre la posibilidad de utilizarlos en la recuperación práctica de datos sobrescritos.



Riesgos reales de sobrescritura de datos



Sin embargo, esto no significa que la sobrescritura de datos esté exenta de riesgos y amenazas. Siempre son posibles errores del usuario, interrupciones incontroladas en el proceso, fallos del dispositivo y del software, o acciones intencionadas destinadas a impedir la destrucción efectiva de los datos. También existen riesgos relacionados con la posibilidad de que se encuentren datos accidentales o intencionalmente ocultos fuera del direccionamiento LBA.
Los datos se pueden encontrar en áreas ocultas fuera del direccionamiento LBA utilizando las funciones HPA (Host Protected Area - Área protegida del host) o DCO (Device Configuration Overlay Superposición de configuración del dispositivo). En el caso de las unidades SMR, los datos obsoletos pueden sobrevivir de manera incontrolada fuera del direccionamiento LBA, y su ubicación y sobrescritura confiable requieren análisis y comprensión del LBA al subsistema de traducción de direccionamiento físico. También hay sectores en cada disco a los que no se les ha asignado una dirección LBA. Se trata, por ejemplo, de sectores de reserva o sectores físicos al final del disco, que son más de lo necesario para alcanzar su capacidad nominal. Estos sectores se pueden utilizar para ocultar datos intencionalmente, pero tanto su ocultación como su lectura posterior requieren un conocimiento adecuado del firmware del disco y la capacidad de trabajar con direccionamiento físico.
Sin embargo, las sobrescrituras múltiples no protegen contra ninguno de los riesgos anteriores. Mejorar la seguridad del proceso de sobrescritura de datos debería centrarse principalmente en analizar el subsistema de traducción de direcciones lógicas (LBA) en direcciones físicas y apuntar a sobrescribir datos en el direccionamiento físico. Por lo tanto, si no nos importa el borrado selectivo de los archivos seleccionados, pero queremos destruir todo el contenido del disco, es mejor elegir el procedimiento de borrado seguro (Secure Erase), que funciona más cerca del hardware que los programas que funcionan con direccionamiento LBA. Los datos se destruyen irremediablemente en la primera pasada de sobrescritura. Cada uno posterior es simplemente un gasto innecesario y una pérdida de tiempo, y esto probablemente sea una razón suficiente para finalmente tirar el algoritmo de Gutmann a la basura.



Literatura:



1] Gutmann, P.: Secure Deletion of Data from Magnetic and Solid-State Memory. Proceedings of the Sixth USENIX Security Symposium, San Jose, CA, July 22-25, (1996),
2] Коженевський, С. Р.: Взгляд на жёсткий диск "изнутри". Магнитные головки, ООО "ЕПОС", Київ (2009).
3] Gomez, R., Adly, A., Mayergoyz, I., Burke, E.: Magnetic Force Scanning Tunnelling Microscope Imaging of Overwritten Data, IEEE Transactions on Magnetics 28(5), (1992),
4] Gomez, R., Burke, E., Adly, A., Mayergoyz, I., Gorczyca, J.: Microscopic Investigations of Overwritten Data, Journal of Applied Physics 73(10), 6001 (1993),
5] Bertram, H. N.: Theory of Magnetic Recording, Cambridge University Press, London (1994),
6] Bertram, H. N., Fiedler, L. D.: Amplitude and bit shift spectra comparision in thin metalic media, IEEE Transactions on Magnetics 19(5) (1983),
7] Коженевський, С. Р.: Взгляд на жёсткий диск "изнутри". Перезапись информации, ООО "ЕПОС", Київ (2006),
8] Khizroev, S., Litvinov, D.: Perpendicular magnetic recording, Kluiwer Academic Publishers, Dordrecht (2004),
9] Schouhamer Immink, K. A.: Codes for Mass Data Storage Systems, Shannon Foundation Publishers, Eindhoven (2004),
10] Vasić, B., Kurtas, E. M.: Coding and signal processing for magnetic recording systems, CRC Press LLC, Boca Raton (2005),
11] Wu, Z.: Coding and Iterative Detection for Magnetic Recording Channels, Springer Science + Business Media LLC, New York (2000),
12] Sobey, Ch. H.: Drive-Independent Data Recovery: The Current State-of-the-Art, IEEE Transactions on Magnetics 42(2), (2006),
13] Mayergoyz, I. D., Tse, C.: Spin-stand Microscopy of Hard Disk Data, Elsevier Science Ltd., Amsterdam (2007),
14] Amer, A., Holliday, J., Long, D. D. E., Miller E. L., Paris, J-F., Schwartz, T. S. J.: Data Management and Layout for Shingled Magnetic Recording, IEEE Transactions on Magnetics, 47(10), (2011),
15] Miura, K., Yamamoto, E., Aoi, H., Muraoka, H.: Skew angle effect in shingled writting magnetic recording, Physics Procedia 16, (2011),
16] Коженевський, С. Р.: Взгляд на жёсткий диск "изнутри". Механика и сервосистема, ООО "ЕПОС", Київ (2007).
17] Mamun, al, A., Guo, G. X., Bi, Ch.: Hard Disk Drive Mechatronics and Control, CRC Press, Boca Raton, (2006),
18] Chen, B. M., Lee, T. H., Peng, K., Venkataramanan, V.: Hard Disk Drive Servo Systems, Springer-Verlag, London, (2006),
19] Du, C., Pang, C. K., Multi-Stage Actuation Systems and Control, CRC Press, Boca Raton, (2019),
20] Plumer, M. L., Ek van, J., Weller, D.: The physics of ultra-high-density magnetic recording, Springer-Verlag, Berlin (2001),
21] Ababei, R.-V., Ellis, M. O. A., Evans, R. F. L., Chantrell, R. W.: Anomalous damping dependence of the switching time in Fe/FePt bilayer recording media, Physical Review B99 024427 (2019),
22] Riggle, C. M., McCarthy, S. G.: Design of Error Correction Systems for Disk Drives, IEEE Transactions on Magnetics 34(4), (1998),
23] Wright, C., Kleiman, D., Shyaam Sundhar, R. S.: Overwriting Hard Drive Data: The Great Wiping Controversy. R. Sekar and A.K. Pujari (Eds.): ICISS 2008, LNCS 5352, Springer-Verlag Berlin, Heidelberg (2008), 24] Sugawara, T., Yamagishi, M., Mutoh, H., Shimoda, K., Mizoshita, Y.: Viterbi detector including PRML and EPRML, IEEE Transactions on Magnetics 29(6), (1993),
25] Gupta, M. R., Hoeschele, M. D., Rogers, M. K: Hidden Disk Areas: HPA and DCO. International Journal of Digital Evidence 5(1), (2006).