Este artículo se publicó originalmente en el blog global de Schneider Electric por Andrew Nix
La IA Generativa está transformando las operaciones del negocio, incluyendo aspectos de ciberseguridad.
Las organizaciones invierten millones en IA general, gastando De 5 a 20 millones de dólares en la tecnología. Esperan que los algoritmos de IA y los modelos de lenguaje grande (LLM) proporcionen ganancias sin precedentes en eficiencia y productividad para competir de mejor manera en sus respectivos mercados.
Sin embargo, la IA puede crear serios problemas de ciberseguridad para los operadores de centros de datos. Asegurar las cargas de trabajo de IA de generación de los ciberataques es una tarea importante, que requiere la cooperación entre clientes, proveedores de tecnología, operadores de colocación e hiperescaladores responsables de la infraestructura.
Los modelos de IA ensanchan la superficie de ataque. Un ejemplo reciente Informe del Uptime Institute basado en una encuesta a operadores de centros de datos destacó la preocupación por los riesgos de ciberseguridad que plantean las conexiones de red adicionales introducidas por los mecanismos de control basados en IA. Esto puede resultar en vulnerabilidades que los malos actores pueden explotar para manipular los datos.
Como tal, los centros de datos de colocación e hiperescaladores deben agregar nuevas capas de ciberseguridad específicas a las cargas de trabajo y los datos de IA para protegerse a sí mismos y a sus usuarios finales.
Riesgos de ciberseguridad para los modelos de IA y la propiedad intelectual
La manipulación del modelo es una preocupación seria. A medida que los modelos de IA aprenden de las interacciones con sus usuarios objetivo, pueden manipularse si no están protegidos adecuadamente. Los actores incorrectos pueden manipular los datos, haciendo que los modelos ofrezcan con confianza resultados inexactos y potencialmente peligrosos desconocidos para los usuarios.
Otra cuestión es la de la propiedad intelectual. Los algoritmos de IA avanzados que las organizaciones utilizan para ejecutar sus procesos empresariales deben estar protegidos contra la ingeniería inversa para evitar la replicación de modelos. Los actores de la amenaza pueden reconstruir la información del modelo y potencialmente acceder a los datos privados de las organizaciones y sus usuarios con fines dañinos.
Pasos clave para contrarrestar los ataques relacionados con la IA
A medida que la IA general gana tracción, es difícil predecir la magnitud de los riesgos cibernéticos que creará, o cuánto costará a las organizaciones defenderse de los malos actores. Pero los hiperescaladores y los centros de datos de colocación deben actuar ahora para implementar defensas sólidas.
La protección de los datos, la propiedad intelectual y la infraestructura del cliente en los centros de datos de colocación e hiperescala es un esfuerzo continuo que se tiene que adaptar a la evolución de las cargas de trabajo de IA general. Es inevitable que surjan nuevos riesgos. Tendrán que ser estudiados y comprendidos, de modo que los centros de datos puedan tomar medidas para diseñar adecuadamente la infraestructura y emplear un buen gobierno.
Al igual que en otras áreas de ciberseguridad, se necesita una infraestructura multinivel que incluya medidas como:
- Evaluaciones regulares de seguridad: Es crucial realizar pruebas y evaluaciones de rutina en los sistemas de IA de un centro de datos. Estas revisiones revelan vulnerabilidades existentes y potenciales que de otra manera podrían pasar desapercibidas.
- Sólido cifrado de datos: Ya sea en reposo o en vuelo, los datos de IA deben cifrarse y actualizarse constantemente para evitar que los malos actores accedan y manipulen.
- Modelos de datos federados: Los modelos federados permiten compartir datos de la nube en sitios periféricos y en instalaciones, donde se enriquecen con información específica del lugar. Si se interceptan en transición, los datos no tendrán sentido sin los matices específicos de cada ubicación.
- Visibilidad y monitoreo continuo: La IA que ayuda a otra IA puede usar modelos de aprendizaje profundo para detectar anomalías y actividad maliciosa en los datos.

Los operadores de colocación e hiper escaladores deben agregar controles de ciberseguridad para proteger las cargas de trabajo de IA sin olvidar la infraestructura. La IA requiere energía y equipos adicionales, por lo que existe la necesidad de protegerla contra ataques porque podría causar interrupciones en el funcionamiento.
Schneider Electric trabaja en estrecha colaboración con los centros de datos de servicios de colocación e hiper escaladores para proteger los datos y la infraestructura. La IA plantea riesgos de ciberseguridad para los centros de datos. Proteger modelos de IA requiere evaluaciones de seguridad, cifrado de datos y monitoreo continuo. Por ejemplo, eventos como un cambio significativo en el consumo de energía justificarían una investigación más detallada para determinar si fue causado por actividad maliciosa.
Mirando hacia el futuro: Mitigación de amenazas relacionadas con la IA
Es necesario un enfoque multinivel para la ciberseguridad del centro de datos para los operadores de colocación e hiperescaladores. Comienza con la identificación de la ubicación de todos los activos para que puedan estar debidamente protegidos. En la era de la IA general, cuando el potencial de daño aumenta significativamente, implementar y mantener defensas cibernéticas resilientes nunca ha sido más importante. Explore estrategias para reforzar la seguridad de la IA y otras amenazas cibernéticas a través de nuestro sitio de servicios de ciberseguridad.
Añadir comentario