El “efecto Jenga” y la combinación tóxica

Las dos caras de una misma moneda. El poder de la IA para transformar el negocio está fuera de toda discusión. Pero, al mismo tiempo, la incorporación de servicios nuevos, en el contexto de una dinámica en que los avances se producen a toda velocidad, introduce nuevos riesgos: su adopción acelerada, por lo pronto, abre nuevas superficies de ataque que todavía no están bajo control.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailEl primero, las vulnerabilidades críticas. Los sistemas basados en Unix, muy utilizados en cargas de IA, tienen múltiples bibliotecas que no siempre están auditadas ni actualizadas. Puntualmente, las cargas de trabajo en la nube que involucran IA muestran una tasa mayor de vulnerabilidades (70%), que aquellas que no incluyen esta tecnología (alrededor del 50%).
Luego, los accesos públicos expuestos. Por ejemplo, el 14% del almacenamiento de datos en Amazon Bedrock tiene desactivado el bloqueo de acceso público y deja puertas abiertas a potenciales atacantes.
El tercer elemento son los privilegios excesivos. El 77% de las organizaciones que usan Vertex AI Workbench en Google Cloud tiene al menos una instancia configurada con la cuenta de servicio predeterminada de Compute Engine con el tipo “editor”. Esto habilita acceso completo al proyecto y expone así datos sensibles y recursos críticos.
Por último, se visualizan configuraciones por defecto peligrosas. Como muestra el estudio, el 90,5% de las notebooks de SageMaker habilitan el acceso raíz por defecto. Esto permite a cualquier actor con acceso comprometer el entorno con privilegios administrativos.
Controlar desde los cimientos
Cuando estos cuatro elementos coexisten, aumentan las chances de ataque y se dificulta la detección y el control del impacto. En IA, donde los modelos procesan datos sensibles o toman decisiones críticas, los efectos pueden ser devastadores: desde la manipulación de predicciones hasta la filtración de información personal.
Los elementos que conforman la “combinación tóxica” son parte de un fenómeno que hemos bautizado como “efecto Jenga”: los proveedores cloud suelen construir servicios nuevos sobre otros existentes, por lo que se heredan características predeterminadas que no siempre se ajustan a las mejores prácticas de seguridad.
Así, una configuración por defecto en un componente subyacente (como una máquina virtual o una cuenta de servicio) puede comprometer toda la cadena de servicios que se monta encima, incluyendo herramientas de machine learning como notebooks, pipelines de entrenamiento o APIs de inferencia.
Lo más preocupante es que estos problemas están “tras bambalinas” y suelen pasar desapercibidos para los equipos de seguridad y desarrollo, que confían en la gestión automatizada de la nube.
Frente a este escenario, es esencial adoptar una estrategia de gestión de la exposición que sea consciente de los matices de la IA. La complejidad y la velocidad de la innovación en IA exigen una solución robusta y automatizada. Hacerlo permitirá convertir las enormes aspiraciones que giran en torno a la IA en beneficios de negocio tangibles y seguros, garantizando que la torre de la innovación se construya sobre cimientos sólidos y no sobre una base a punto de colapsar.
El autor es Director de Ingeniería de Seguridad para Tenable América Latina y Caribe