La migración masiva de aplicaciones críticas de los centros de datos tradicionales hacia la nube ha captado la atención de analistas, observadores de la industria, y en general todos los actores interesados del sector de los centros de datos. Sin embargo, a medida que esta gran migración a la nube transforma la industria de los centros de datos, otra revolución, más pequeña e inadvertida, se ha extendido entre las aplicaciones que no se han migrado. La criticidad de estas últimas, conocidas como aplicaciones “edge”, ha aumentado significativamente, por la naturaleza misma de la nube.
Me explico. La nube centralizada fue concebida para aplicaciones en las que el tiempo no fuera para nada crucial. A medida que las aplicaciones críticas se iban mudando a la nube, se hizo obvio que la latencia, las limitaciones de ancho de banda, la seguridad y otros requisitos regulatorios, estaban limitando qué podía albergarse en la nube y qué no. En base a varios casos, se vio que ciertas aplicaciones ya existentes (como el proceso de la planta de producción), así como otras nuevas aplicaciones emergentes (como coches autónomos, semáforos inteligentes y otras aplicaciones IoT de alto uso de ancho de banda) era preferible dejarlas en el edge.
Con la rapidez a la que se producen estos cambios, es fácil que la persona que se encargue del diseño de un data center malinterprete la tendencia cloud y decida bajar el nivel de criticidad de la reducción de la huella y capacidad del centro de datos on-site. Nada más lejos de la realidad. Considerando la necesidad de un mayor control, de adherirse a premisas regulatorias, de una latencia baja y de una conectividad generalizada, los nuevos centros de datos edge deben diseñarse pensando siempre en una alta criticidad y disponibilidad.
El problema está en que muchos centros de datos on-site de tamaño reducido no están diseñados para asumir su nuevo papel como “avanzadilla” de datos críticos. La mayor parte se basan en uno o dos servidores alojados en un armario de cableado. Con la configuración actual, estas instalaciones están expuestas a riesgos físicos de seguridad y caídas del servicio, por lo que necesitan de un rediseño estructural.
La redundancia de sistemas es también otro problema. Teniendo la mayor parte de aplicaciones en la nube, cualquier caída del acceso a ella impide que los empleados puedan ser productivos. Los sistemas edge, al seguir funcionando durante tales interrupciones, contribuyen a la continuidad del negocio.
Pasos para mejorar la resiliencia del edge
Para aumentar la disponibilidad de aplicaciones edge críticas, se recomiendan diferentes buenas prácticas:
- Mejorar la seguridad– Al entrar en un servidor físico, normalmente se pueden encontrar puertas sin ninguna seguridad y armarios sin puertas. Para aumentar su seguridad, se debería situar el equipamiento en una sala o espacio cerrado. Puede considerarse, incluso, el acceso por control biométrico. En el caso de ambientes hostiles, lo mejor es salvaguardar el equipamiento del polvo, agua, humedad y vandalismo.
- Refrigeración dedicada– Los armarios y espacios tradicionales suelen depender únicamente del sistema de refrigeración del edificio en sí, lo que podría ya ser insuficiente para asegurar la continuidad del servicio. Reanaliza tus necesidades de refrigeración y humidificación para determinar si tu mejor opción es el flujo de aire activo, pasivo, u otro enfoque.
- Gestión DCIM– Estas habitaciones no disponen, con frecuencia, de personal ni software dedicados a gestionar sus activos y a evitar la caída del servicio. Implementa una plataforma de monitorización centralizada para todos los activos de todas las localizaciones. Si es imposible la monitorización por parte de personas, puedes desplegar un sistema remoto.
- Gestión de armarios– Se suele sobreestimar la gestión del cableado en armarios remotos, causando graves desorden, obstrucciones en el flujo de aire y errores humanos durante cambios o incorporaciones de nuevo equipamiento. Los armarios modernos, equipados con opciones para una gestión fácil del cableado, ayudan a reducir el riesgo de caídas no previstas.
- Redundancia– Los sistemas energéticos SAI suelen estar en entornos tradicionales o anticuados, lo que reduce su disponibilidad y elimina la capacidad de hacer que sigan funcionando durante su mantenimiento. Considera duplicar circuitos para poder realizar el mantenimiento de servidores críticos. También puedes añadir un segundo proveedor de red para ubicaciones críticas. Organiza los cables de red con dispositivos de gestión de cableado, y etiqueta con colores las líneas de red para evitar errores humanos.
Un enfoque sistemático para evaluar pequeños centros de datos remotos es imprescindible para garantizar el mayor retorno de la inversión. Descubre más descargándote el White Paper de Schneider Electric, “Why Cloud Computing is Requiring us to Rethink Resiliency at the Edge”, que expone un método simple para organizar una tabla que permita a responsables y directores la resiliencia de sus entornos edge.
Añadir comentario