Ya es habitual, en las conferencias más relevantes de Microsoft, que Mark Russinovich nos enseñe los últimos cambios e innovaciones que se están aplicando en los datacenters de Azure. En este post os cuento los puntos más relevantes de la última sesión del último Ignite.
Parece imparable el aumento de las regiones de Azure. Ya son más de 65 regiones y el último año se ha anunciado la incorporación de otras 9. También sabemos que España está en camino, y parece que el objetivo de Microsoft es tener una región en cada país del mundo para abordar los problemas de conectividad y/o los posibles problemas legales.
Como vemos en la imagen, una región tiene múltiples datacenters distribuidos en tres zonas de disponibilidad.
En cuanto al consumo energético de estos datacenters, todos sabemos que Microsoft está invirtiendo en ser una empresa más verde y mejorar considerablemente el consumo, bien invirtiendo en energía limpia o bien, mejorando la eficiencia.
Un datacenter consume de media unos 10.000 megavatios de energía, mucha energía para una región y, en su compromiso por ser más eficientes, ya existen datacenters que se alimentan totalmente de energía renovable, como los que tenemos en la región de Dinamarca.
La eficacia en el consumo de energía de un datacenter se mide en PUE. Un datacenter típico consume entre 1.8 y 2 PUE. El objetivo de Microsoft es que sus datacenters estén lo más cerca de 1, ratio que han conseguido con su último diseño, llamado Ballard, que tiene un PUE de 1.18.
Microsoft está aplicando inteligencia artificial a las operaciones que se realizan en sus datacenters. Con esto, pretende hacer predicciones en tiempo real que permitan realizar acciones o avisar de un posible problema. Este concepto se llama AIOps.
La capacidad de la red de Microsoft tiene números que asustan:
Todo esto aderezado con una de las más largas WAN del mundo, con 130.000 Kms de fibra y cable submarino.
Si los datos sobre las redes de Azure son impresionantes, los números de los servidores no van a ser menos. ¿Para qué queremos esas capacidades en redes si no tenemos computación para aprovecharla?
En la carrera por tener el servidor en la nube con mayor capacidad y que sirva para alimentar las necesidades de la base de datos en memoria de SAP-HANA, la evolución de los mega-servidores que empezó en 2014, ha sido la siguiente:
Con la cantidad de servidores y CPUs que hay un datacenter de Azure, no se pueden permitir «tubear» y hacer esta instalación típica y por eso están haciendo pruebas para sumergir la electrónica en líquido refrigerante, como podemos ver en la imagen anterior.
La computación cuántica será la próxima generación de servidores y Microsoft está trabajando en dos vectores: ofrecernos un entorno de desarrollo en Azure y en su propio sistema de computación cuántica.
El QDK, Quantum Development Kit, ya lo tenemos disponible para usar y probar con Azure Quantum, bien usando emuladores o hardware de diversos fabricantes, como podemos ver en la imagen anterior.
Cryos-CMOS es el core de la arquitectura escalable que está diseñando y probando Microsoft, que le permite tener una interfaz de entrada/salida de millones de qubits.
Azure Resource Manager es el servicio de administración y despliegue de todos los recursos de Azure, que tiene una arquitectura de software que usa los propios servicios de Azure, como podemos ver en la siguiente imagen.
La primera versión de dapr es un hito para Microsoft como proyecto Open Source, ya que permite desarrollar aplicaciones abstrayéndonos de los servicios externos que podemos usar, lo que nos permite centrarnos, como desarrolladores, en la lógica de negocio.
Al igual que tenemos los bindings en Azure Functions, dapr nos permite hacer uso de un modelo similar de abstracción para hablar con los servicios de nuestro proveedor.
La protección de los datos es fundamental y no es suficiente con tener encriptado en el transporte o en el almacenamiento de los datos, ahora es importante también tener encriptado en la memoria ram que usa las aplicaciones para leer nuestros datos, lo que se llamada Confidential Computing.
La última versión de SQL Server un sistema enclave de «Always Encrypted» que asegura que sólo la aplicación de confianza puede leer los datos confidenciales que están encriptados.
La arquitectura de almacenamiento de Azure es una pieza fundamental para, a futuro, recibir innovaciones del tipo almacenamiento holográfico, Project HSD, o almacenamiento en cristal con Project Silica, de forma transparente.
El ADN es un sistema de almacenamiento extremadamente durable, puede durar millones de años, y extremadamente denso, lo que permite almacenar muchísima más información que la próxima tecnología de almacenamiento. Microsoft puede almacenar zettabytes en un rack de un datacenter con ADN, esta misma cantidad ocuparía docenas de datacenters con la tecnología de almacenamiento actual.
Todo esto sintetizando moléculas de ADN para codificar los bits de forma natural mediante nucleótidos.
¿Qué te parece? Como ves, siguen y siguen llegando innovaciones al mundo de la tecnología para cubrir las predicciones de demanda que parece van a llegar en futuro no muy lejano…¿te las vas a perder?
Este sitio web utiliza cookies para que tengas la mejor experiencia de usuario. Si continuas navegando, estás dando tu consentimiento para aceptar las cookies y también nuestra política de cookies (esperemos que no te empaches con tanta cookie 😊)