Redes

NVIDIA presenta productos de supercomputación y Edge en SC22

Los productos de la compañía están diseñados para resolver la transmisión de datos en tiempo real, instrumentos de adquisición de datos de borde.

Edificio de oficinas de NVIDIA en Santa Clara.Imagen: Fotografía diversa/Adobe Stock

NVIDIA anunció varias asociaciones y productos de computación perimetral el 11 de noviembre antes de la Conferencia internacional sobre computación, redes, almacenamiento y análisis de alto rendimiento (también conocida como SC22), que se llevará a cabo del 13 al 18 de noviembre.

La computación de alto rendimiento en la pila de soluciones perimetrales incluye expansores MetroX-3 Infiniband, transmisión de datos escalable de alto rendimiento y unidades de procesamiento de datos BlueField-3 para acelerar y descargar la migración de datos. Además, el SDK de Holoscan está optimizado para instrumentos en la vanguardia de la ciencia y es accesible para los desarrolladores a través de las API estándar de C++ y Python, incluidos los datos que no son de imagen.

VER: iCloud vs. OneDrive: ¿Cuál es mejor para los usuarios de Mac, iPad y iPhone? (PDF gratuito) (República Tecnológica)

Todo destinado a abordar las necesidades marginales de investigación e implementación de alta fidelidad. La computación de alto rendimiento en el borde aborda dos desafíos importantes, dijo Dion Harris, gerente principal de productos para computación acelerada en NVIDIA, en una sesión informativa virtual previa al espectáculo.

En primer lugar, los instrumentos científicos de alta fidelidad procesan grandes cantidades de datos en el borde y deben usarse de manera más eficiente en el borde y en el centro de datos. En segundo lugar, el desafío de entregar la migración de datos surge cuando se producen, analizan y procesan cantidades masivas de datos de alta fidelidad. Los investigadores deben poder automatizar las migraciones de datos y decidir cuántos datos mover al núcleo y cuántos analizar en el perímetro, todo en tiempo real. La inteligencia artificial también puede ser útil aquí.

«Las herramientas de recopilación de datos de Edge se están transformando en aceleradores de investigación interactivos en tiempo real», dijo Harris.

LEER  Amazon Prime Day: la mejor tecnología de oficina en casa de 2023

«La transmisión de datos casi en tiempo real se está volviendo cada vez más popular», dijo el director ejecutivo de Zettar, Chin Fang, en un comunicado. «Una DPU con capacidades integradas de movimiento de datos brinda una tremenda simplicidad y eficiencia al flujo de trabajo».

Anuncios de productos de NVIDIA

Cada nuevo producto anunciado aborda este problema en una dirección diferente. El MetroX-3 Long Haul extiende la plataforma de conectividad Infiniband de NVIDIA a 25 millas o 40 kilómetros, lo que permite que campus y centros de datos separados operen como una sola unidad. Es adecuado para una variedad de casos de uso de migración de datos y aprovecha las capacidades de acceso directo a la memoria remota local de NVIDIA, así como otras capacidades informáticas en red de Infiniband.

Nube: informe de lectura obligatoria

El acelerador BlueField-3 está diseñado para mejorar la eficiencia de descarga y la seguridad en los flujos de migración de datos. Zettar demostró su uso de las DPU NVIDIA BlueField para la migración de datos en la conferencia, lo que demuestra que el espacio total de la empresa se redujo de 13U a 4U. Específicamente, el proyecto de Zettar usó un Dell PowerEdge R720 con una DPU BlueField-2 y un servidor Colfax CX2265i.

Zettar identificó dos tendencias en TI hoy en día que hacen que acelerar la migración de datos sea útil: el paradigma de borde a núcleo/nube y la infraestructura componible y desagregada. Una migración de datos más eficiente entre infraestructuras físicamente dispares también puede ser un paso hacia la reducción general de energía y espacio, y reducir la necesidad de actualizaciones masivas del centro de datos.

«Casi todas las industrias verticales se enfrentan hoy a un tsunami de datos», dijo Fang. «… ahora es aún más urgente mover los datos desde el borde, donde reside la instrumentación, al núcleo y/o la nube para un análisis más detallado en canalizaciones a menudo impulsadas por IA».

Más supercomputación de vanguardia

Otras asociaciones de borde de NVIDIA anunciadas en SC22 incluyen una versión enfriada por inmersión líquida de la supercomputadora OSS Rigel Edge en el TMGcore EdgeBox 4.5 de One Stop Systems y TMGcore.

«Rigel y la solución NVIDIA HGX A100 4GPU representan un gran avance en el avance del diseño, la potencia y la refrigeración de las supercomputadoras para entornos de borde extremo», dijo Paresh Kharya, director sénior de gestión de productos para computación acelerada de NVIDIA.

Los casos de uso para supercomputadoras robustas refrigeradas por líquido para entornos de borde incluyen automóviles autónomos, helicópteros, centros de comando móviles y bahías de equipos de aeronaves o drones, dijo One Stop Systems. El líquido en esta configuración particular es una mezcla no corrosiva «similar al agua» que elimina el calor de los componentes electrónicos en función de sus propiedades de punto de ebullición, eliminando la necesidad de grandes disipadores de calor. Si bien esto reduce el tamaño de la caja, el consumo de energía y el ruido, el líquido también actúa para amortiguar los golpes y las vibraciones. El objetivo general es llevar el nivel de computación de clase de centro de datos móvil al límite.

Eficiencia Energética en Supercomputación

NVIDIA también tiene planes para mejorar la eficiencia energética, con su GPU H100 casi el doble de eficiente energéticamente que la A100. La GPU H100 Tensor Core basada en la arquitectura NVIDIA Hopper GPU es la sucesora de la A100. La segunda generación de tecnología de GPU de múltiples instancias significa que la cantidad de clientes de GPU disponibles para los usuarios del centro de datos ha aumentado drásticamente.

Además, la compañía señaló que su tecnología impulsa 23 de los 30 sistemas principales en la lista de supercomputadoras más eficientes de Green500. Encabezando la lista está una supercomputadora del Instituto de Investigación Flatiron en Nueva Jersey, construida por Lenovo. Incluye el servidor ThinkSystem SR670 V2 de Lenovo y una GPU NVIDIA H100 Tensor Core conectada a una red NVIDIA Quantum 200Gb/s InfiniBand. Los pequeños transistores, de solo 5 nanómetros de ancho, ayudan a reducir el tamaño y el consumo de energía.

«Esta computadora nos permitirá hacer más ciencia usando tecnologías más inteligentes que usan menos electricidad y contribuyen a un futuro más sostenible», dijo Ian Fisk, codirector del Núcleo de Computación Científica en el Instituto Flatiron Say.

NVIDIA también habló sobre su CPU Grace y Grace Hopper Superchips, que miran hacia el futuro donde la computación acelerada impulsará más investigación, como lo está haciendo el Instituto Flatiron. NVIDIA dice que los centros de datos con tecnología de Grace y Grace Hopper pueden hacer 1,8 veces más trabajo con el mismo presupuesto de energía. En comparación con un centro de datos HPC de 1 MW basado en x86 con particiones similares, el 20 por ciento de la energía se asigna a la partición de la CPU y el 80 por ciento a la parte acelerada de la nueva CPU y el nuevo chip.

Para obtener más información, consulte los anuncios recientes de IA de NVIDIA, la oferta Omniverse Cloud de Metaverse y su controvertido controlador kernel de código abierto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba