29/03/2026

La Dinámica Adversarial en Sistemas Complejos: Un Marco para la Estabilidad en Ciberseguridad

Equilibrio en la adversalidad

¿Es la seguridad un estado alcanzable o una condición dinámica?

La Dinámica Adversarial en Sistemas Complejos | Guido E. Rosales Uriona
Documento de Trabajo · 2026

La Dinámica Adversarial en Sistemas Complejos:

Un Marco para la Estabilidad en Ciberseguridad

AdversarialidadEquilibrio dinámicoSistemas complejos Resiliencia adaptativaHomeostasisEntropía
GR
Guido E. Rosales Uriona (Doctorante) Línea: Innovación adversarial en sistemas complejos
Resumen

Este trabajo propone un cambio de paradigma en ciberseguridad: entender la seguridad no como un estado que se alcanza, sino como un equilibrio dinámico sostenido entre cinco dimensiones interdependientes. Para ello introduce la adversarialidad como categoría analítica central — cualquier dinámica, intencional o no, que genera presión sobre ese equilibrio — y la clasifica en cinco tipos: intencional, no intencional, estructural, relacional e interna por traición. La tesis central: la adversarialidad es una propiedad emergente de los sistemas complejos, no una excepción. Las organizaciones que comprenden esto dejan de buscar la eliminación del riesgo y comienzan a desarrollar capacidades de navegación continua en entornos inherentemente adversos.

SECCIÓN 01

Introducción

El paradigma tradicional de la ciberseguridad se ha estructurado sobre una premisa deceptivamente simple: existe un atacante externo que intenta comprometer el sistema, y un defensor que debe impedirlo. Este modelo ha generado décadas de inversión en perímetros, firewalls, controles de acceso y sistemas de detección de intrusiones.

Sin embargo, cuando se analiza la seguridad en entornos organizacionales complejos — caracterizados por múltiples interacciones entre personas, procesos, tecnología y entorno regulatorio — este paradigma revela sus limitaciones estructurales. Los incidentes de seguridad más costosos no siempre provienen de atacantes sofisticados: muchos tienen origen en errores humanos, decisiones organizacionales subóptimas, dependencias con terceros mal gestionadas o arquitecturas técnicas que acumulan vulnerabilidades por diseño.

«¿Es la seguridad un estado alcanzable o una condición dinámica? ¿Es el adversario únicamente un agente externo, o una propiedad emergente del sistema?»

Este trabajo propone un marco conceptual que responde estas preguntas desde la teoría de sistemas complejos, reposicionando la ciberseguridad como una disciplina de gestión continua de equilibrios, no de eliminación de amenazas.

SECCIÓN 02

Seguridad como Equilibrio Dinámico: El Modelo CIA+

La ciberseguridad ha sido definida históricamente en torno a la tríada CIA: confidencialidad, integridad y disponibilidad. Este modelo es sólido como punto de partida, pero insuficiente en entornos digitales contemporáneos donde la autenticidad y el no repudio son igualmente críticos, especialmente en contextos de transacciones financieras, firma digital y trazabilidad regulatoria.

DimensiónDefiniciónTensión adversarial típica
ConfidencialidadSolo los actores autorizados acceden a la informaciónExfiltración, interceptación, exposición en dark web
IntegridadLa información no ha sido alterada sin autorizaciónManipulación de datos, inyección, falsificación de registros
DisponibilidadEl sistema opera cuando se lo necesitaDDoS, ransomware, corrupción de infraestructura
AutenticidadLas entidades son quienes dicen serSuplantación, deepfakes, robo de identidad digital
No RepudioLas acciones no pueden negarse después de realizadasEliminación de logs, manipulación de trazabilidad, fraude transaccional

Estas cinco dimensiones no son objetivos independientes — forman un sistema de equilibrio. Una organización que refuerza disponibilidad a expensas de autenticidad (abriendo accesos para garantizar operatividad) está degradando su equilibrio general, aunque no lo perciba como una falla. La homeostasis, concepto biológico de Walter Cannon (1932), provee la analogía adecuada: la estabilidad no es ausencia de perturbación, sino capacidad de autorregulación continua frente a ella.

SECCIÓN 03

Adversidad y Adversarialidad: Una Distinción Conceptual Necesaria

Para comprender la dinámica de la seguridad en sistemas complejos, es necesario establecer una distinción que el lenguaje de la ciberseguridad frecuentemente colapsa:

La adversidad son las condiciones estructurales del entorno: incertidumbre, complejidad, interconexión tecnológica, dependencia de terceros, limitaciones cognitivas humanas. No puede eliminarse — es el mar en el que navega el sistema.

La adversarialidad es cualquier dinámica — intencional o no — que introduce presión, degradación o ruptura sobre los objetivos de seguridad del sistema dentro de ese entorno. No requiere un actor malicioso: puede ser el resultado de la propia complejidad del sistema operando sobre sí mismo.

Esta distinción tiene una implicación práctica inmediata: si la adversidad es el entorno, el objetivo de la seguridad no puede ser eliminarla. El objetivo es desarrollar la capacidad de operar dentro de ella manteniendo el equilibrio de las cinco dimensiones.

SECCIÓN 04

La Adversarialidad como Propiedad Emergente

Desde la teoría general de sistemas (Von Bertalanffy, 1968) y los enfoques de sistemas sociotécnicos (Trist y Emery, 1960), las organizaciones deben entenderse como estructuras donde múltiples elementos interactúan de manera no lineal, generando comportamientos que no pueden predecirse a partir del análisis individual de sus componentes.

En este contexto, la adversarialidad emerge de las propias interacciones del sistema. Un error humano en la configuración de un firewall crea una vulnerabilidad que ningún atacante diseñó. Una decisión de reducir el equipo de seguridad para optimizar costos degrada la capacidad de detección sin que nadie lo haya planeado como un ataque.

La teoría de la entropía en sistemas complejos (Prigogine) añade la dimensión temporal: todo sistema tiende al desorden si no se interviene activamente. La degradación de controles, la obsolescencia tecnológica y la acumulación de errores no son excepciones — son la trayectoria por defecto de cualquier sistema no gestionado activamente.

«La adversarialidad es la manifestación de la entropía del sistema sobre sus objetivos de seguridad. No es la excepción; es la tendencia natural que la organización debe contrarrestar de forma continua.»
SECCIÓN 05

Tipología de la Dinámica Adversarial

A partir de la definición propuesta, la adversarialidad puede clasificarse en cinco tipos que cubren el espectro completo de fuentes de presión sobre el equilibrio de seguridad:

TIPO 01
Adversarialidad Intencional
Acciones deliberadas de actores externos o internos orientadas a comprometer los objetivos de seguridad del sistema. Corresponde al vector más estudiado en ciberseguridad tradicional.
APT · Ransomware · Espionaje corporativoDetección y respuesta → el modelo tradicional cubre bien este tipo
TIPO 02
Adversarialidad No Intencional
Errores, omisiones o negligencia sin intención maliciosa. Frecuentemente subestimada como fuente de incidentes, aunque estadísticamente es una de las más frecuentes.
Mala configuración · Phishing accidental · Parches omitidosCultura de seguridad y controles compensatorios
TIPO 03
Adversarialidad Estructural
Debilidades inherentes a la arquitectura, diseño o lógica del sistema. No tiene solución puntual — existe por cómo el sistema fue concebido y requiere gestión permanente.
Deuda técnica · Protocolos obsoletos · Arquitecturas legacyRevisión arquitectónica continua — no tiene fix definitivo
TIPO 04
Adversarialidad Relacional
Riesgos derivados de la interacción con terceros o la cadena de suministro. El perímetro de seguridad de una organización se extiende a todos los actores con acceso o dependencia sobre ella.
Proveedores comprometidos · APIs inseguras · SolarWinds-typeGestión activa de terceros y superficie de riesgo extendida
TIPO 05
Adversarialidad Interna por Traición
Acciones conscientes y deliberadas de actores internos que rompen el marco de confianza. A diferencia del error humano, implica intencionalidad y posición de privilegio. La más difícil de detectar preventivamente.
Exfiltración por insider · Sabotaje interno · Venta de accesosZero trust · Separación de funciones · Monitoreo comportamental
SECCIÓN 06

El Sistema como Navegación en Entorno Adverso

Una forma conceptualmente útil de integrar los elementos propuestos es mediante la analogía de la embarcación en entorno adverso. Esta metáfora no es meramente ilustrativa — tiene implicaciones directas sobre cómo se diseñan las capacidades de seguridad.

La adversidad es el mar: tormentas, corrientes, visibilidad limitada. Son condiciones del entorno que no se pueden cambiar; se puede diseñar una embarcación mejor y desarrollar mejores marineros. La adversarialidad son las dinámicas que afectan la estabilidad de la embarcación dentro de ese mar: errores de navegación, fallos estructurales del casco, conflictos entre la tripulación, o el sabotaje deliberado de un pasajero.

El objetivo de la ciberseguridad no es alcanzar un puerto tranquilo donde el mar no exista — ese puerto no existe en entornos digitales contemporáneos. El objetivo es desarrollar una embarcación que pueda navegar en condiciones adversas de forma continua, detectar cuando está perdiendo estabilidad antes de que vuelque, y recuperar el equilibrio con el menor costo posible.

«La seguridad no es el destino; es la capacidad de continuar navegando.»
SECCIÓN 07

El Cambio de Paradigma: Seguridad Estática vs. Equilibrio Dinámico

El enfoque propuesto implica una transformación sustancial en la forma de concebir, diseñar y gestionar la ciberseguridad:

DimensiónParadigma tradicionalEquilibrio dinámico
ObjetivoEliminar el riesgoGestionar el equilibrio continuo
Naturaleza de la seguridadEstado que se alcanzaProceso permanente de ajuste
Fuente del riesgoAtacante externoAdversarialidad emergente (5 tipos)
Modelo de respuestaReactivo ante incidentesAdaptativo y anticipatorio
Foco de intervenciónPerímetro y controles técnicosSistema sociotécnico completo
Indicador de éxitoAusencia de incidentesVelocidad de recuperación del equilibrio
Rol de la culturaSecundario (concienciación)Central (cultura adaptativa)
TemporalidadPeriódica (auditorías, revisiones)Continua (monitoreo permanente)
SECCIÓN 08

Implicaciones para la Práctica Organizacional

De controles estáticos a capacidades adaptativas
Lo que importa no es solo si el control existe, sino si el sistema tiene la capacidad de detectar cuando ese control ha sido superado o degradado, y de ajustar su respuesta de forma proporcional y oportuna. La revisión periódica es insuficiente; se requiere monitoreo continuo.
La adversarialidad no intencional como prioridad subestimada
La inversión en seguridad se concentra desproporcionadamente en la defensa frente a atacantes externos. Sin embargo, la adversarialidad no intencional y la estructural son, en muchos contextos, fuentes de incidentes más frecuentes. Este desbalance genera una ilusión de seguridad: robustez frente a ataques sofisticados con alta vulnerabilidad ante errores cotidianos.
La gestión de terceros como extensión del sistema
La adversarialidad relacional implica que el perímetro de seguridad de una organización ya no termina en sus propios sistemas. Cada proveedor con acceso, cada API integrada, cada socio tecnológico es una extensión del sistema cuya adversarialidad forma parte del equilibrio que debe gestionarse activamente.
La simulación adversarial como práctica de mantenimiento del equilibrio
Si la adversarialidad es una propiedad emergente del sistema, la simulación adversarial no es solo una herramienta de evaluación de seguridad — es una práctica de mantenimiento del equilibrio. Permite al sistema observar cómo responde a perturbaciones antes de que ocurran en condiciones reales, identificando formas de adversarialidad que sus controles actuales no detectan.
SECCIÓN 09

Conclusiones

01La seguridad no es un estado alcanzable sino un equilibrio dinámico entre cinco dimensiones interdependientes (CIA+), sostenido por mecanismos de autorregulación continua.
02La adversarialidad es una categoría analítica más amplia y más útil que la del atacante externo: incluye dinámicas intencionales, no intencionales, estructurales, relacionales e internas, cada una con implicaciones distintas para la gestión.
03La adversarialidad es una propiedad emergente de los sistemas complejos y una manifestación de su entropía natural. Su tendencia no es excepcional; es la trayectoria por defecto en ausencia de intervención activa.
04El cambio de paradigma propuesto tiene implicaciones concretas sobre inversiones, diseño de capacidades, indicadores de éxito y cultura organizacional.
05Las organizaciones que adopten este marco medirán su seguridad no por la ausencia de incidentes, sino por su capacidad de detectar pérdidas de equilibrio y recuperarlas con velocidad y eficiencia crecientes.
«La pregunta correcta no es ¿hemos eliminado el riesgo? La pregunta correcta es ¿cuánto tardamos en recuperar el equilibrio cuando lo perdemos?»
REFERENCIAS

Referencias

Cannon, W. B. (1932). The Wisdom of the Body. W. W. Norton.

MITRE Corporation. (2023). ATT&CK Framework v14. https://attack.mitre.org

National Institute of Standards and Technology. (2018). NIST Cybersecurity Framework v1.1. U.S. Department of Commerce.

Perrow, C. (1984). Normal Accidents: Living with High-Risk Technologies. Basic Books.

Prigogine, I., & Stengers, I. (1984). Order Out of Chaos: Man's New Dialogue with Nature. Bantam Books.

Trist, E., & Emery, F. (1960). Socio-Technical Systems. En C. W. Churchman & M. Verhulst (Eds.), Management Science, Models and Techniques (Vol. 2). Pergamon Press.

Von Bertalanffy, L. (1968). General System Theory: Foundations, Development, Applications. George Braziller.

Weick, K. E., & Sutcliffe, K. M. (2007). Managing the Unexpected: Resilient Performance in an Age of Uncertainty (2nd ed.). Jossey-Bass.

GLOSARIO

Glosario de Términos

Los siguientes términos constituyen el marco conceptual del presente trabajo, presentados en orden temático para facilitar su comprensión progresiva.

AdversarialidadCualquier dinámica — intencional o no — que introduce presión, degradación o ruptura sobre los objetivos de seguridad de un sistema. Puede emerger de interacciones internas, fallas estructurales o condiciones del entorno, sin requerir un actor malicioso externo.
AdversidadCondiciones inherentes de incertidumbre, complejidad y exposición en las que opera un sistema. La adversidad es el entorno; la adversarialidad es la dinámica que actúa sobre el sistema dentro de ese entorno.
Equilibrio DinámicoEstado de la seguridad organizacional que no es estático ni permanente, sino el resultado continuo de ajustes entre las cinco dimensiones de seguridad (CIA+) frente a perturbaciones internas y externas.
Tríada CIA+Extensión del modelo clásico de confidencialidad, integridad y disponibilidad que incorpora autenticidad y no repudio como dimensiones fundamentales en contextos de transacciones digitales, trazabilidad y entornos regulados.
Homeostasis OrganizacionalCapacidad de un sistema organizacional de mantener condiciones operativas estables mediante mecanismos de autorregulación — controles, monitoreo, respuesta — frente a perturbaciones. Análogo al concepto biológico de Cannon (1932).
Adversarialidad IntencionalTipo de adversarialidad que comprende acciones deliberadas de actores externos o internos orientadas a comprometer los objetivos de seguridad del sistema.
Adversarialidad No IntencionalTipo de adversarialidad originada en errores, omisiones o negligencia sin intención maliciosa. Incluye configuraciones incorrectas, fallas de actualización, errores humanos en operaciones críticas.
Adversarialidad EstructuralTipo de adversarialidad originada en debilidades inherentes a la arquitectura, diseño o lógica del sistema. Existe por cómo el sistema fue concebido: deuda técnica, arquitecturas legacy, protocolos obsoletos por diseño.
Adversarialidad RelacionalTipo de adversarialidad derivada de la interacción con terceros, proveedores o la cadena de suministro. El riesgo no proviene directamente del sistema, sino de entidades externas con acceso o dependencia sobre él.
Adversarialidad Interna por TraiciónTipo de adversarialidad originada en acciones conscientes y deliberadas de actores internos que rompen el marco de confianza. Implica intencionalidad y posición de privilegio dentro del sistema.
Propiedad EmergenteCaracterística o comportamiento que surge de las interacciones entre componentes de un sistema, sin ser predecible a partir del análisis individual de cada componente. La adversarialidad es caracterizada como una propiedad emergente de los sistemas complejos.
Entropía del Sistema (Prigogine)Tendencia irreversible de los sistemas complejos hacia el desorden. En ciberseguridad se manifiesta como degradación de controles, obsolescencia tecnológica y acumulación de errores — la trayectoria por defecto en ausencia de intervención activa.
Sistema SociotécnicoSistema donde componentes tecnológicos y humanos están profundamente interconectados. Las fallas emergen de la interacción entre personas, procesos y tecnología, no de ninguno de esos elementos de forma aislada.
Navegación en Entorno AdversoMetáfora propuesta en este trabajo: el objetivo de la ciberseguridad no es eliminar las condiciones adversas del entorno — imposible — sino desarrollar la capacidad de operar dentro de ellas manteniendo el equilibrio y la función organizacional.
Resiliencia AdaptativaCapacidad organizacional de mantener funciones críticas y recuperar el equilibrio dinámico ante perturbaciones, ajustando continuamente su respuesta. Va más allá de la recuperación post-incidente.
Tensión de SeguridadPresión constante ejercida sobre el equilibrio dinámico de un sistema por la suma de sus fuentes de adversarialidad. La gestión de la seguridad es gestión continua de tensiones, no eliminación del riesgo.
Deuda Técnica AdversarialAcumulación de decisiones técnicas subóptimas — código sin actualizar, configuraciones heredadas, protocolos obsoletos — que incrementa progresivamente la adversarialidad estructural del sistema.
Cultura de Seguridad AdaptativaDisposición organizacional a revisar activamente los supuestos de seguridad, admitir fallas estructurales y no intencionales como parte del paisaje normal de riesgo, y responder con ajustes continuos en lugar de correcciones puntuales.

Guido E. Rosales Uriona (Doctorante) · Documento de Trabajo · 2026

Línea de investigación: Innovación adversarial en sistemas complejos

Autor / Redactor / Director