Azure

Las últimas innovaciones en los centros de datos de Azure

Ya es habitual, en las conferencias más relevantes de Microsoft, que Mark Russinovich nos enseñe los últimos cambios e innovaciones que se están aplicando en los datacenters de Azure. En este post os cuento los puntos más relevantes de la última sesión del último Ignite.

Inside Datacenters

Parece imparable el aumento de las regiones de Azure. Ya son más de 65 regiones y el último año se ha anunciado la incorporación de otras 9. También sabemos que España está en camino, y parece que el objetivo de Microsoft es tener una región en cada país del mundo para abordar los problemas de conectividad y/o los posibles problemas legales.

Cada región está construida en base al concepto de zonas de disponibilidad (Availability Zones) con un mínimo garantizado por Microsoft de 3 zonas, lo que permite construir, dentro de la misma región, sistemas de alta disponibilidad.

Como vemos en la imagen, una región tiene múltiples datacenters distribuidos en tres zonas de disponibilidad.

En cuanto al consumo energético de estos datacenters, todos sabemos que Microsoft está invirtiendo en ser una empresa más verde y mejorar considerablemente el consumo, bien invirtiendo en energía limpia o bien, mejorando la eficiencia.

Un datacenter consume de media unos 10.000 megavatios de energía, mucha energía para una región y, en su compromiso por ser más eficientes, ya existen datacenters que se alimentan totalmente de energía renovable, como los que tenemos en la región de Dinamarca.

La eficacia en el consumo de energía de un datacenter se mide en PUE. Un datacenter típico consume entre 1.8 y 2 PUE. El objetivo de Microsoft es que sus datacenters estén lo más cerca de 1, ratio que han conseguido con su último diseño, llamado Ballard, que tiene un PUE de 1.18.

Inside Intelligence Infrastructure

Microsoft está aplicando inteligencia artificial a las operaciones que se realizan en sus datacenters. Con esto, pretende hacer predicciones en tiempo real que permitan realizar acciones o avisar de un posible problema. Este concepto se llama AIOps.

Azure está construyendo un cerebro, llamado Brain, que analiza en tiempo real toda la telemetría del hardware y software que se utiliza para operar los servicios de Azure y toma decisiones en base a estos datos ejecutando algoritmos de Machine Learning. Con Resource Central, Microsoft ejecuta un servicio de predicción en todos los clusters de computación de Azure, como podemos ver en la siguiente imagen.

Gracias a esta inteligencia se ha conseguido reducir un 26% las interrupciones o fallos en las máquinas virtuales.

Inside networking

La capacidad de la red de Microsoft tiene números que asustan:

  • Adaptadores de red con velocidades de 50-gigabit con una SmartNIC acelerada por FPGA
  • Software Defined Appliances con capacidades de 200-gigabit
  • Más de 1 millón de millas de fibra óptica en cada datacenter

Todo esto aderezado con una de las más largas WAN del mundo, con 130.000 Kms de fibra y cable submarino.

Inside Servers

Si los datos sobre las redes de Azure son impresionantes, los números de los servidores no van a ser menos. ¿Para qué queremos esas capacidades en redes si no tenemos computación para aprovecharla?

En la carrera por tener el servidor en la nube con mayor capacidad y que sirva para alimentar las necesidades de la base de datos en memoria de SAP-HANA, la evolución de los mega-servidores que empezó en 2014, ha sido la siguiente:

  • 2014, nació Godzilla con 2×16 Cores, 521 GB de RAM, 9×800 GB en discos SSD y 40Gb/s en redes.
  • 2017 fue el año de Beast, con 4×18 Cores, 4 TB de RAM, 4×2 TB en discos NVMe, 1×960 GB en discos SSD y 40Gb/s
  • 2019 llegó Beast V2, con 8×28 Cores, 12 TB de RAM, 7×960 GB en NVMe y 50Gb/s con FPGA
  • 2019 lo habitual era un AMD Gen 7, con 2×32 Cores, 768 Gb de RAM, 7×960 GB de NVMe y 50Gb/s
  • 2020 Intel Gen 7, con 2×26 Core, 576 GB de RAM, 7×960 GB de NVMe y 50Gb/s
  • 2020 Mega-Godzilla-Beast, con 16×28 Core, 24 TB de RAM, 2×960 GB de SSD, 5×6,5 TiB de discos PCIe y 50Gb7s

La innovación viene en forma de líquido. Al parecer es la opción más eficiente de tener refrigerados la electrónica de estos servidores. Los aires acondicionados no son suficientes para estas CPUs.

La refrigeración líquida es la que teníamos, tenemos o se usa en los ordenadores de gaming, esos tubos que recorren la torre de nuestro PC para llevar líquido frío a la CPU.

Con la cantidad de servidores y CPUs que hay un datacenter de Azure, no se pueden permitir «tubear» y hacer esta instalación típica y por eso están haciendo pruebas para sumergir la electrónica en líquido refrigerante, como podemos ver en la imagen anterior.

La computación cuántica será la próxima generación de servidores y Microsoft está trabajando en dos vectores: ofrecernos un entorno de desarrollo en Azure y en su propio sistema de computación cuántica.

El QDK, Quantum Development Kit, ya lo tenemos disponible para usar y probar con Azure Quantum, bien usando emuladores o hardware de diversos fabricantes, como podemos ver en la imagen anterior.

Cryos-CMOS es el core de la arquitectura escalable que está diseñando y probando Microsoft, que le permite tener una interfaz de entrada/salida de millones de qubits.

Inside Azure Resource Manager

Azure Resource Manager es el servicio de administración y despliegue de todos los recursos de Azure, que tiene una arquitectura de software que usa los propios servicios de Azure, como podemos ver en la siguiente imagen.

Una arquitectura multi-región activa-activa que permite administrar Azure desde cualquier región. Interesante el uso de Cosmos DB como base de datos replicada geográficamente con los metadatos de los recursos.

Inside Compute

La primera versión de dapr es un hito para Microsoft como proyecto Open Source, ya que permite desarrollar aplicaciones abstrayéndonos de los servicios externos que podemos usar, lo que nos permite centrarnos, como desarrolladores, en la lógica de negocio.

Al igual que tenemos los bindings en Azure Functions, dapr nos permite hacer uso de un modelo similar de abstracción para hablar con los servicios de nuestro proveedor.

La protección de los datos es fundamental y no es suficiente con tener encriptado en el transporte o en el almacenamiento de los datos, ahora es importante también tener encriptado en la memoria ram que usa las aplicaciones para leer nuestros datos, lo que se llamada Confidential Computing.

La última versión de SQL Server un sistema enclave de «Always Encrypted» que asegura que sólo la aplicación de confianza puede leer los datos confidenciales que están encriptados.

Inside Storage and Data

La arquitectura de almacenamiento de Azure es una pieza fundamental para, a futuro, recibir innovaciones del tipo almacenamiento holográfico, Project HSD, o almacenamiento en cristal con Project Silica, de forma transparente.

Más allá de los cristales o los hologramas, que ya son almacenamientos innovadores, Microsoft sigue trabajando en el Proyecto Palix, para almacenar datos dentro de moléculas de ADN.

El ADN es un sistema de almacenamiento extremadamente durable, puede durar millones de años, y extremadamente denso, lo que permite almacenar muchísima más información que la próxima tecnología de almacenamiento. Microsoft puede almacenar zettabytes en un rack de un datacenter con ADN, esta misma cantidad ocuparía docenas de datacenters con la tecnología de almacenamiento actual.

Todo esto sintetizando moléculas de ADN para codificar los bits de forma natural mediante nucleótidos.

¿Qué te parece? Como ves, siguen y siguen llegando innovaciones al mundo de la tecnología para cubrir las predicciones de demanda que parece van a llegar en futuro no muy lejano…¿te las vas a perder?

Compartir
Publicado por
Alberto Diaz Martin

Este sitio web utiliza cookies para que tengas la mejor experiencia de usuario. Si continuas navegando, estás dando tu consentimiento para aceptar las cookies y también nuestra política de cookies (esperemos que no te empaches con tanta cookie 😊)