Hardware

El aumento de la densidad de almacenamiento requiere una gestión de software agresiva para mantener el rendimiento

Uno de los problemas de larga data con la informática es la necesidad de más almacenamiento de datos. La cantidad de datos comerciales y personales que se generan es enorme y está creciendo: la empresa de servicios en la nube Domo estima que para 2023, cada persona en el planeta creará 1,7 MB de datos por segundo. Esto, a su vez, crea la necesidad de más almacenamiento y un almacenamiento más denso: si tanto las unidades de 4 TB como las de 8 TB consumen 9 W de energía en funcionamiento, entonces solo los ahorros en costos de electricidad impulsarán la demanda de un almacenamiento más denso. Tampoco tiene en cuenta los costos de los equipos, así como el espacio de rack y los bienes inmuebles necesarios para implementar estos sistemas, una preocupación destacada a medida que la informática continúa moviéndose hacia el borde.

Estas mayores densidades tienen un costo: en el caso de flash, una mayor densidad da como resultado una resistencia de escritura reducida. Mientras que las lecturas de bloque son esencialmente ilimitadas, la resistencia de escritura de bloque se degrada con el aumento de la densidad: 6000 a 40 000 ciclos para 3D MLC NAND y 1000 a 3000 ciclos para 3D TLC NAND, 3D QLC NAND (cuatro bits) con 100 a 1000 ciclos.

En comparación, los SSD QLC NAND son económicos, desde la perspectiva del costo por GB, aunque su relativa falta de resistencia a la escritura los hace inadecuados para una amplia variedad de aplicaciones.

«Es revelador cuando la gente comprende la tecnología subyacente de QLC y la durabilidad de las unidades», dijo Matt Hallberg, gerente senior de marketing de productos de Toshiba Memory America. «Hay una gran empresa de semiconductores que tiene unidades QLC con una resistencia de aproximadamente 0,2 escrituras de unidad por día (DWPD). Eso requeriría una gran cantidad de sobrecarga de software para garantizar que todo lo que escriba en la unidad se escriba secuencialmente, para prolongar la vida útil. de la unidad.”

LEER  Los mejores monitores para tu PC en 2023

Hallberg también se apresuró a descartar la ventaja de costos de QLC. «La gente piensa que hay ahorros de costos… todos esperan una diferencia de precio del 40 % en QLC. Cuando la realidad es que se pasa de tres niveles a cuatro. No es un cambio del 40 %… en realidad es del 20 al 25 %. Usted también Tiene que hacer algo extra con el QLC, lo que en realidad puede aumentar sus costos, dependiendo de cómo se implemente su QLC».

Mirar: Las cinco mejores opciones locales de almacenamiento en la nube (PDF gratuito) (República tecnológica)

Joseph Unsworth, vicepresidente de investigación de Gartner, dijo que la gestión del rendimiento para QLC se puede hacer con una transparencia modesta y que hay varias formas de hacerlo, y dijo: «La tecnología QLC es imprescindible para que los proveedores de NAND reduzcan los costos de manera sostenible en el futuro». y los entornos de almacenamiento empresarial «adoptarán cada vez más la tecnología».

El primero de ellos fue que los fabricantes de SSD adoptaron «técnicas avanzadas de administración de flash… para mejorar la resistencia de escritura a nivel de chip», un intento que resultó en una mejora de 3 a 7 veces, aunque dependiendo de la prioridad de escritura Equilibre el rendimiento y mantenga la resistencia de escritura .

El análisis de almacenamiento se puede utilizar para monitorear el estado de la unidad y predecir fallas inminentes de la unidad.

Otro enfoque es el SSD H10 de Intel, que combina su memoria de clase de almacenamiento (SCM) Optane (3D XPoint) con QLC NAND en una sola unidad M.2. Este diseño esencialmente hace que la memoria Optane sea esencialmente un caché activo. En efecto, este modelo SCM+QLC es similar a las unidades híbridas anteriores que combinaban flash NAND con unidades de disco tradicionales, dijo Tim Stammers, analista senior de 451 Research.

Dificultades de la grabación magnética en tejas

Para el mercado tradicional de unidades de disco, los tres fabricantes de unidades han adoptado hasta cierto punto la Grabación Magnética Tejada (SMR). Las unidades SMR son más lentas que las unidades tradicionales y no son un reemplazo directo; aunque existe una implementación plug-and-play, llamada «Drive-Managed SMR», Western Digital advierte en una publicación de blog que las tareas «en segundo plano» que tiene la unidad to perform Puede resultar en un rendimiento altamente impredecible y no es adecuado para cargas de trabajo empresariales. »

Western Digital anuncia SMR administrado por host, donde el sistema host es responsable de administrar el flujo de datos, la administración de zonas y las operaciones de E/S. Dicha administración de host requiere necesariamente soporte de pila, y estas unidades no están fácilmente disponibles en los sistemas de escritorio y requieren una potencia de procesamiento moderadamente mayor de los dispositivos de almacenamiento para manejar estas tareas.

Western Digital tiene una visión positiva de estos desafíos y señala que la capacidad adicional otorgada por SMR (alrededor del 16 %) «no es gratuita», destacando que «utilizar esta capacidad requiere el compromiso del cliente de invertir en sistemas de archivos de desarrollo de software y aplicaciones subyacentes, Y agregó: «Teniendo en cuenta los costos operativos y de capital del centro de datos, esta inversión puede dar sus frutos a largo plazo, ya que las unidades SMR ofrecen un menor costo por terabyte y un mejor costo total de propiedad (TCO)».

«[Cloud vendors] El trabajo del lado del host se realizará para admitir la funcionalidad SMR, pero, por supuesto, la mayoría de los otros casos de uso no están listos y no se diseñarán para SMR”, dijo Scott Wright, director de marketing de productos de Toshiba.

Accionamiento de doble actuador «Confianza total»

A medida que aumenta la densidad de las unidades de disco tradicionales, la proporción (operaciones de entrada/salida por segundo) por terabyte continúa disminuyendo. Sage y Western Digital han discutido públicamente sus intenciones de cambiar a discos duros de doble disco.

Este no fue el primer intento, a mediados de la década de 1990, los intentos en las unidades «Chinook» de nicho de Conner Peripherals eran conocidos por fallas prematuras debido al aumento de la vibración que causaba impactos en la cabeza. Sin embargo, John Monroe, vicepresidente de investigación de Gartner, dijo que las implementaciones modernas parecen tener «total confianza» en la industria, y señaló que «la necesidad es la madre de la invención, y a partir de los 16 TB, se necesitarán múltiples actuadores».

istock 1126486118=
Imagen: Getty Images/iStockphoto

LEER  Principales ciudades para trabajos tecnológicos en 2023, según Indeed

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba