Innovación

Una ventaja más nítida en un mundo de múltiples nubes

concepto de computación en la nube
Imagen: serpeblu/Adobe Stock

La computación en la nube ha experimentado una difusión y circulación similar al vapor, literal y figurativamente, y ahora impregna casi todos los aspectos de la vida y los negocios. Si los ingenieros de redes que dibujaron las burbujas de nubes giratorias iniciales para representar las instancias de computación virtual supieran cómo la computación en la nube se parecería en última instancia a la computación en la nube, podrían haberse dado permiso para darse palmaditas en la espalda nuevamente.

Hoy, vivimos en un mundo donde las nubes privadas, públicas e híbridas trabajan juntas. Esta diversidad nos motiva a entender la multinube (la combinación de más de un tipo de instancia de nube, a menudo de múltiples proveedores de servicios de nube) como la nueva norma.

Algunos puristas de la nube incluso hablan de múltiples nubes, donde las grandes cargas de trabajo informáticas dentro de una sola aplicación o base de datos monolítica se «separan» en una implementación de múltiples nubes. En resumen, hay muchas nubes de varias formas haciendo mucho trabajo hoy.

Por qué sucede nublado

Teniendo en cuenta por qué surgió la multinube en primer lugar, esta diversidad se deriva del hecho de que la empresa típica se ejecuta en algún lugar de una zona de 500 aplicaciones para impulsar el crecimiento del negocio.

Debido a que la empresa prudente sabe que necesita distribuir el riesgo y dominar diferentes eficiencias de costos y rendimiento donde se puede identificar, un buen activo de nube generalmente incluye implementaciones híbridas público-privadas que ahora también tienen nubes de borde dedicadas.

Diseñado específicamente para el procesamiento, el análisis y el almacenamiento; maneja tareas complejas como la transmisión de datos y el aprendizaje automático (ML); incluso se puede ejecutar para dar la bienvenida a servicios basados ​​en cuántica, nubes perimetrales y poblar Internet de las cosas (IoT) y dispositivos integrados. ingeniería Las necesidades específicas de los equipos de la nueva era siguen siendo constantes.

VER: ¿Qué es una arquitectura multinube? (República tecnológica)

La diversificación de la nube es claramente habilitante, pero como sabemos, también hay desventajas; en este caso, la recompensa por la heterogeneidad y el cambio son los dolores de cabeza de administración y la complejidad de la infraestructura. La carga de las actualizaciones de políticas de mantenimiento y seguridad tiene el potencial de hacer que la nube sea más difícil de navegar.

LEER  Cómo Beam Suntory adoptó la tecnología Bourbon

Para abordar el status quo de los desafíos de administración centrados en el borde en la nación global de la nube, VMware anunció ofertas de software de infraestructura de borde y nube en la conferencia Explore 2023 de este mes.

La forma de las cargas de trabajo modernas

La investigación interna de VMware muestra que 580 millones de cargas de trabajo «modernas» (que podemos considerar de naturaleza compleja, nativas de la nube, distribuidas, etc.) año administradas en la nube. La empresa también ha identificado específicamente la nube de telecomunicaciones (telco) como un área de crecimiento clave teniendo en cuenta el entorno perimetral.

«En el entorno altamente distribuido de hoy en día, los clientes necesitan una infraestructura en la nube y perimetral que les permita escalar sus operaciones con consistencia, disponibilidad y seguridad dondequiera que se ejecuten las cargas de trabajo de su empresa, y con el TCO (costo total de propiedad) lo más bajo posible», dijo Mark Lohmeyer, vicepresidente sénior de VMware y director general del grupo empresarial Cloud Infrastructure.

Los recientemente lanzados VMware vSphere 8 y VMware vSAN 8 son las principales nuevas soluciones informáticas y de almacenamiento.

La compañía afirma que VMware vSphere 8 marcará el comienzo de una nueva era de computación heterogénea al unir las DPU (Unidades de procesamiento de datos) con las CPU (Unidades de procesamiento central) y las GPU (Unidades de procesamiento de gráficos). Diseñado para manejar tareas de procesamiento de datos especializadas, la DPU está diseñada con aceleración de hardware específica en todos sus circuitos para proporcionar una ejecución de carga de trabajo más eficiente y rápida. En este caso, VMware dice que pueden satisfacer las demandas de rendimiento y latencia de las cargas de trabajo distribuidas modernas.

Anteriormente conocido como Project Monterey, los esfuerzos de VMware para aprovechar la DPU son el resultado de la colaboración con los socios tecnológicos AMD, Intel y Nvidia, y los socios de sistemas OEM (fabricante de equipos originales) Dell Technologies, Hewlett Packard Enterprise y Lenovo. Se dice que vSphere en DPU mejora la seguridad de la infraestructura ejecutando servicios de infraestructura en la DPU y aislándolos del dominio de la carga de trabajo.

gran transporte

Además, el firewall distribuido de NSX, que actualmente se encuentra en versión beta, se descargará a la DPU para escalar las operaciones de seguridad de los clientes al proteger el tráfico este-oeste (tráfico entre dispositivos del centro de datos) a velocidad de cable sin necesidad de software en un departamento de TI determinado. Despliegue de agentes.

También sabemos que vSphere 8 acelerará las aplicaciones de IA (inteligencia artificial) y ML al duplicar la cantidad de dispositivos de GPU virtuales por máquina virtual (VM), lo que permitirá cuadriplicar los dispositivos de transferencia y los grupos de dispositivos de proveedores, lo que permitirá la vinculación Especificar alto -Velocidad de dispositivos de red y GPU.

Para los equipos de DevOps (desarrollo y operaciones), vSphere 8 incluye Tanzu Kubernetes Grid 2.0, una tecnología que amplía las capacidades de Kubernetes para incluir Multi-AZ para mejorar la resiliencia y simplificar el ciclo de vida del clúster y la gestión de paquetes. Además, los clientes de vSphere 8 se beneficiarán de un nuevo servicio de interfaz de consumo en la nube que proporciona una forma abierta y programable de usar la infraestructura de la nube y los recursos de Kubernetes para los entornos de VMware Cloud.

Ver también: iCloud vs OneDrive: ¿Cuál es mejor para usuarios de Mac, iPad y iPhone? (PDF gratuito) (República Tecnológica)

En VMware Explore 2023, VMware presentó nuevas soluciones de borde mejoradas creadas para aplicaciones nativas de borde y sus requisitos de rendimiento, autonomía y latencia. Incluyen VMware Edge Compute Stack 2, una plataforma perimetral totalmente integrada para ejecutar aplicaciones nativas perimetrales modernas, existentes y futuras.

VMware Edge Compute Stack 2 ayudará a los clientes a satisfacer las necesidades de simplicidad y escalabilidad del perímetro. Las nuevas características incluirán soporte para tamaños de clúster más pequeños para ejecutar contenedores de manera eficiente en hardware COTS (comercial, listo para usar) más pequeño. Además, esta versión proporcionará un mayor rendimiento con soporte de transferencia de GPU para admitir casos de uso de IA/ML.

VMware también mostró su solución perimetral administrada con NTT. VMware y NTT anunciaron una asociación ampliada para ofrecer una solución de computación perimetral totalmente administrada con conectividad 5G privada, ofrecida por NTT a nivel mundial y con la tecnología de VMware Edge Compute Stack. Se dice que la oferta conjunta permite a las empresas implementar, administrar y monitorear aplicaciones más cerca del borde que nunca.

Aplicaciones nativas perimetrales

Edge Computing es el próximo paso en la evolución de la empresa digital distribuida, con cargas de trabajo que crecen más rápido, y se espera que el gasto global se acerque a £ 150 mil millones ($ 174,79 mil millones) en 2023, según VMware.

La estrategia de borde de VMware está diseñada para consolidarse en todas las ofertas de VMware, lo que permite a las organizaciones ejecutar, administrar y asegurar aplicaciones nativas de borde en varias nubes en el borde cercano de los dispositivos IoT de nivel de consumidor y los microcentros de datos, y en el borde lejano de los dispositivos minoristas inteligentes. , Dispositivos médicos conectados, máquinas de IA y dispositivos IoT más anchos o más pequeños como sensores.

Sabemos que IoT y edge computing no son exactamente términos intercambiables. Por lo general, pensamos en IoT como un dispositivo y un proceso relacionado con la computación perimetral a través del cual realizamos operaciones computacionales para tareas como el análisis agregado, el análisis de tendencias y la identificación de valores atípicos.

El hecho de que también estemos hablando de dispositivos perimetrales, servidores perimetrales y ahora la nube perimetral destaca la forma en que las cargas de trabajo de TI se están desplazando en muchos lugares, y ahí es donde está el enfoque de VMware. La era del desarrollo de aplicaciones de software nativas de la nube ha generado la creación de aplicaciones nativas de borde.

Los bordes se vuelven más nítidos, más seguros, más inteligentes, más rápidos y, con suerte, más suaves.

LEER  Lo que significa el plan de infraestructura de $ 2.3 billones de Biden para la industria tecnológica

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba