Cómo trasladar la arquitectura Open Compute a nivel Enterprise 2

Arrancamos el segundo de aquellos post que me comprometí a escribir en torno a esas nuevas soluciones OCP o Hyper Scale. La verdad que han sido unos meses desde entonces muy interesantes en los que creo que cada vez está cogiendo más forma y más fondo.

Tras la primera aproximación a esos nuevos centros de datos 3 fueron mis principales conclusiones:

  • Reducción de Capex y optimización de Opex. El análisis desde el punto de vista de las Facility de salida aporta beneficios tanto en la inversión inicial como en los gastos operativos posteriores, incluyendo el energético.
  • Uptime y Open Compute. La respuesta oficial de Uptime Institute es que estas nuevas arquitecturas podrán certificarse sin problemas. La no oficial y me consta es que los requerimientos de salida de Uptime para certificar tiran abajo todos los beneficios de las nuevas arquitecturas. Voy a proponerme no volver a incidir mucho en este asunto.
  • Legacy e IT. Era algo lógico tras la primera aproximación desde un punto de vista Facility. ¿Qué pasa con la parte IT? Y por supuesto, ¿qué pasa con mi legacy?, que sigue existiendo y creo que por algún tiempo.

Estas conclusiones principales me dejan un buen sabor de boca. Pensemos que como decía en mi anterior post, creo que por primera vez y desde una aproximación Facility, son los propios usuarios finales los que necesitan unir el primer análisis Facility a la IT y analizar los beneficios desde un punto de vista holístico. Lo que no unan las redes sociales 🙂

Por otra parte, lo más negativo, aunque esperado. Las entidades que se encargan de certificar/estandarizar serán las que más tarden en darle forma a esto, lógico, ante situaciones nuevas se tienen que probablemente adaptar…

El trabajo a partir de ahora empieza de verdad, el producto existe, pero ahora toca mover la industria, preparar integradores y sobretodo encajar la arquitectura informática de las compañías ante una nueva infraestructura completamente adaptada a todos esos nuevos conceptos que van más allá de aquel primer cloud basado en la virtualización de servidores…. DevOps, containers…. Si lo pensáis bien, es curioso, aunque tiempo atrás leía una publicación donde se recomendaba dejar de hablar tanto de Negocio en el mundo IT, resulta que hemos partido, en nuestro caso (Schneider Electric) de los wattios, hemos enganchado a los bits, pero ahora los de código también están interesados, algo bueno tiene que tener el asunto.

Y ese es el ejercicio que me propongo para próximos post. Evolucionar la experiencia hacia arriba, sin todavía hablar de Negocio, que obviamente acabaremos ahí, pero de salida veremos los beneficios en cada uno de los niveles anteriormente citados.

Un acontecimiento importante ha pasado en las últimas fechas y es el lanzamiento oficial de Open19, la versión hyper scale de Linkedin. Conceptualmente la arquitectura eléctrica es muy similar a Open Compute, puesto que al igual que en esta se está trasladando la seguridad eléctrica a fuentes en rack con baterías, pero la diferencia está en que Linkedin nos deja reutilizar los racks de 19 pulgadas tradicionales y para ello monta unos chasis en los racks donde se alojan los equipos IT que al igual que en Open Compute no llevan fuentes. Habrá que evaluar ventajas e inconvenientes de cada una de las opciones a nivel de rack, pero lo que no modifica son los cambios principales e importantes, el rack se está convirtiendo en un elemento clave al incorporar la alimentación y seguridad eléctrica de los dispositivos IT. Os dejo unas imágenes de los propios ingenieros de Linkedin.

Por último, voy a acabar enseñándoos que estas nuevas arquitecturas ya están cambiando los centros de datos actuales. La siguiente imagen muestra HyperPod, una solución autocontenida de Schneider Electric fruto de diseños realizados para los Internet Giants. Existen dos grandes tendencias actualmente en el despliegue de soluciones en sala IT, la primera es al diseño de PODs que permitan de manera predecible crecer ordenadamente y acorde a las necesidades de cada momento y la segunda es al despliegue basado en rack (así lo hacen los Hyper Scale, pero también es la filosófica de las soluciones hyperconvergentes), es decir, ya no desplegamos el rack, instalamos los equipos IT y cerramos los pasillos, la idea es que los integradores poco a poco irán incorporando servicios que preparen los racks para desplegarlos en casa del cliente ya configurados, que sólo sea conectar y arrancar. En este sentido HyperPod está diseñado para poder tener todo preparado para cuando lleguen esos racks, de manera que la contención, la distribución eléctrica, el cableado, la canalización de aire o agua, etc… está preparado y sólo hace falta ubicar el rack con los equipos IT y conectar.

 

 

 

 

 

 

Etiquetas: , , , , , , , ,

Añadir comentario

Todos los campos son requeridos.

Este sitio usa Akismet para reducir el spam. Aprenda cómo se procesan sus datos de comentarios .