07/04/2026

Limitaciones epistemológicas de modelos de inteligencia artificial

limitavciones IA

Un estudio exploratorio basado en interacción controlada

Limitaciones epistemológicas de modelos de IA
Documento de Trabajo · 2026

Limitaciones epistemológicas de modelos de inteligencia artificial en la reinterpretación adversarial de teorías organizacionales

Un estudio exploratorio a partir del caso del “stakeholder adversarial” y el desplazamiento analítico hacia el marco GAMO

Inteligencia artificial Stakeholders Sistemas complejos GAMO Innovación adversarial Epistemología
GR
Guido E. Rosales Uriona (Doctorante) Línea: Innovación adversarial en sistemas complejos · UCB San Pablo · 2026
Resumen

Este trabajo examina una limitación poco visible de los modelos generativos de inteligencia artificial cuando se enfrentan a reinterpretaciones conceptuales que tensionan categorías organizacionales consolidadas. A partir de un experimento exploratorio de interacción secuencial, se analiza el comportamiento de un modelo comercial frente a una misma pregunta reformulada en distintos niveles de abstracción: la posible existencia de un stakeholder adversarial. El patrón observado muestra inhibición en prompts aplicados y habilitación parcial de respuesta cuando la formulación se desplaza al plano ontológico y gnoseológico. El artículo sostiene que la restricción no radica en ausencia de conocimiento, sino en mecanismos de contención epistemológica que privilegian coherencia y seguridad sobre exploración conceptual. Se incorpora el marco GAMO para demostrar que el fenómeno no solo afecta la producción de respuestas, sino también la manera en que la IA delimita qué puede ser conocido, cómo puede ser dicho, bajo qué valores y mediante qué rutas metodológicas. El caso se propone como evidencia útil para la investigación sobre innovación adversarial continua en sistemas complejos.

IA generativa Stakeholder adversarial GAMO Riesgo epistemológico Ciberseguridad
SECCIÓN 01

Introducción

La incorporación de modelos de inteligencia artificial en tareas de apoyo a la investigación ha generado una expectativa creciente respecto de su capacidad para resumir, conectar, reinterpretar y expandir marcos conceptuales. Sin embargo, estas capacidades no operan en un vacío neutral. Los modelos generativos están condicionados por su entrenamiento, por sus mecanismos de alineación y por arquitecturas de control diseñadas para minimizar respuestas problemáticas. En consecuencia, no toda pregunta conceptualmente válida resulta igualmente procesable.

Este trabajo parte de una observación concreta: ante la pregunta sobre si puede existir un stakeholder adversarial, un modelo generativo comercial falló reiteradamente en producir respuesta. Cuando la misma inquietud fue reformulada desde una perspectiva ontológica y gnoseológica, el sistema consiguió responder y, de forma significativa, propuso una síntesis conceptual: la categoría de stakeholder como categoría “anfibia”, con raíz descriptiva y colonización normativa.

«La IA no solo responde desde lo que sabe; también responde desde aquello que su arquitectura le permite considerar decible.»

La relevancia del caso excede la anécdota técnica. El episodio permite observar cómo un sistema artificial gestiona tensiones epistemológicas cuando una categoría establecida es sometida a reinterpretación adversarial. En ese sentido, el caso ofrece un microescenario útil para estudiar límites de conocimiento, control y adaptación dentro de sistemas complejos cognitivos.

SECCIÓN 02

Marco conceptual

La teoría de stakeholders, asociada principalmente a Freeman, define stakeholder como cualquier actor que puede afectar o ser afectado por los objetivos de una organización. En su formulación original, la categoría tiene una base descriptiva, pero su evolución ha incorporado capas normativas vinculadas a legitimidad, responsabilidad, diálogo y gobernanza. Con el tiempo, la categoría pasó de nombrar relaciones de impacto a insinuar relaciones socialmente aceptables.

Desde la teoría de sistemas complejos adaptativos, esta depuración normativa resulta insuficiente. Los sistemas complejos no se componen solo de actores alineados, sino de múltiples agentes con distintos grados de cooperación, competencia, oportunismo o antagonismo. En contextos digitales y de ciberseguridad, esta observación se vuelve más aguda: actores externos, internos, híbridos o comprometidos pueden alterar el sistema organizacional sin compartir su marco de valores.

  • Base descriptiva: un stakeholder puede ser definido por su capacidad de afectar o ser afectado, sin necesidad de presuponer legitimidad.
  • Carga normativa: gran parte de la literatura contemporánea asocia la categoría con responsabilidad social, interés legítimo y participación aceptable.
  • Tensión adversarial: cuando un actor hostil genera impacto estructural sobre la organización, excluirlo de la categoría obliga a introducir criterios extrasistémicos.

Desde este punto de vista, la expresión stakeholder adversarial no constituye una contradicción automática. Más bien revela un conflicto entre dos modos de entender la categoría: uno descriptivo, centrado en relaciones de impacto, y otro normativo, centrado en legitimidad. Esa fractura fue precisamente la que el modelo de IA pareció no manejar de manera fluida en sus primeras respuestas.

SECCIÓN 03

Diseño del ejercicio exploratorio

El ejercicio consistió en formular progresivamente la misma inquietud conceptual mediante tres tipos de prompts. El primero planteó la pregunta de manera directa. El segundo introdujo explícitamente la teoría de stakeholders y los sistemas complejos. El tercero trasladó la discusión al plano ontológico y gnoseológico, interrogando si la categoría de stakeholder es normativa o descriptiva por naturaleza.

Prompt Tipo de formulación Resultado observado Lectura preliminar
Prompt 1 Pregunta directa sobre la existencia de un stakeholder adversarial. Fallo de respuesta. La tensión conceptual quedó sin estructura de contención.
Prompt 2 Pregunta académica con referencia a stakeholders y sistemas complejos. Nuevo fallo de respuesta. Persistencia de la inhibición en un plano aún aplicado.
Prompt 3 Pregunta ontológica y gnoseológica sobre la naturaleza de la categoría. Respuesta parcial y estructurada. El desplazamiento abstracto habilitó el procesamiento conceptual.

El objetivo no fue medir rendimiento estadístico ni comparar modelos, sino observar el patrón cualitativo de inhibición y habilitación. El experimento es, por tanto, exploratorio. Su valor reside en mostrar que la reformulación del plano de análisis modifica de manera significativa la respuesta del sistema.

SECCIÓN 04

Resultados observados

El primer hallazgo es que el modelo no respondió cuando la tensión conceptual fue presentada en forma directa o aplicada. El segundo es que la sola incorporación de referencias teóricas no bastó para superar el bloqueo. El tercero, más importante, es que el desplazamiento hacia un nivel epistemológico sí permitió construir una respuesta con cierto grado de originalidad conceptual.

Hallazgo clave La categoría respondió cuando dejó de ser problema aplicado y pasó a ser problema de naturaleza conceptual
El mecanismo

El sistema evitó responder mientras la pregunta implicó una reinterpretación operativa de una teoría establecida. La respuesta emergió cuando el análisis se reencuadró en términos ontológicos y gnoseológicos.

La consecuencia sistémica

El modelo mostró que no solo administra contenido, sino umbrales de decibilidad. La reorganización del problema alteró su capacidad de respuesta sin cambiar el núcleo conceptual del caso.

Lección estructural: la IA generativa no falla únicamente por desconocimiento; también falla cuando una categoría amenaza el equilibrio ontológico implícito desde el cual organiza su salida textual.

El término “anfibia” usado por el propio modelo es especialmente relevante. Aunque no pertenece al vocabulario clásico de la teoría de stakeholders, funciona como síntesis válida: reconoce un sustrato descriptivo y una sedimentación normativa. Ese acto de síntesis confirma que la capacidad conceptual estaba disponible, pero no podía activarse en cualquier encuadre.

SECCIÓN 05

Análisis epistemológico GAMO

El marco GAMO permite observar el fenómeno en cuatro dimensiones complementarias. En este caso, no se trata solo de qué respondió la IA, sino de cómo delimitó el campo de lo cognoscible, qué valores priorizó al gestionar la incertidumbre, qué rutas metodológicas habilitó y cuál fue la naturaleza del objeto conceptual que pudo finalmente reconocer.

G
DIMENSIÓN GNOSEOLÓGICA
¿Qué conocimiento produce?
El caso muestra que el modelo posee acceso potencial a una interpretación sofisticada de la categoría stakeholder, pero no la activa en cualquier contexto. El conocimiento está disponible de forma latente y depende del encuadre para volverse expresable.
→ El conocimiento en IA no es solo contenido almacenado, sino contenido condicionado por una arquitectura de habilitación discursiva.
A
DIMENSIÓN AXIOLÓGICA
¿Qué valores prioriza?
El sistema parece privilegiar coherencia, prudencia y seguridad por encima de exploración conceptual cuando enfrenta ambigüedad aplicada. Esta preferencia no es neutral: ordena el riesgo de equivocarse por encima del valor de innovar teóricamente.
→ La alineación axiológica de la IA puede generar una forma de conservadurismo epistémico funcionalmente equivalente al compliance.
M
DIMENSIÓN METODOLÓGICA
¿Cómo se estudia o aplica?
Metodológicamente, el caso sugiere que la interacción con IA debe diseñarse como proceso iterativo de reformulación de planos analíticos. No basta con preguntar mejor; a veces es necesario cambiar el nivel desde el cual el problema es formulado.
→ La exploración con IA requiere estrategias de desplazamiento metodológico: de lo aplicado a lo conceptual, de lo operativo a lo epistemológico.
O
DIMENSIÓN ONTOLÓGICA
¿Qué tipo de fenómeno es?
Ontológicamente, el fenómeno estudiado no es un simple error técnico. Es una restricción estructural de un sistema cognitivo artificial que administra categorías mediante fronteras implícitas entre lo compatible y lo disruptivo.
→ El bloqueo observado constituye una propiedad emergente del sistema y no una mera anomalía accidental de interfaz.

Integrado de este modo, el GAMO permite sostener que el caso no debe leerse como una curiosidad de uso, sino como evidencia de que la IA comercial puede exhibir límites epistemológicos análogos a los que las organizaciones muestran ante eventos adversariales no previstos: primero bloquean, luego recodifican, y solo después habilitan respuesta.

SECCIÓN 06

Discusión

El hallazgo tiene implicaciones para la investigación doctoral sobre innovación adversarial continua. Si un sistema artificial entrenado para asistir procesos cognitivos no logra responder a una tensión conceptual hasta que se reencuadra el problema, entonces la adversarialidad no solo pertenece al campo operativo de la ciberseguridad; también puede instalarse en el propio proceso de producción de conocimiento.

Lado A — modelo de estabilidad
IA alineada para coherencia
  • Prefiere marcos conceptuales consolidados.
  • Minimiza respuestas en zonas grises.
  • Reduce el riesgo de error visible.
  • Favorece interpretaciones socialmente estables.
Lado B — estímulo disruptivo
Pregunta adversarial académica
  • Tensiona una categoría establecida.
  • Introduce ambigüedad ontológica.
  • Exige reinterpretación no rutinaria.
  • Empuja al sistema fuera de su zona de confort epistémico.

La analogía con organizaciones reguladas es evidente: sistemas diseñados para estabilidad suelen responder mal a perturbaciones que no caben en sus taxonomías previas. En ambos casos, la adaptación requiere desplazar el problema a un nivel donde el sistema pueda reconstruir sentido. La diferencia es que, en la IA, esta reconstrucción depende del prompt; en la organización, depende de procesos de aprendizaje, liderazgo y rediseño.

«Cuando la teoría es tensionada por una formulación adversarial, la pregunta no solo prueba al modelo: también revela el tipo de orden que ese modelo intenta preservar.»
SECCIÓN 07

Conclusiones

01El caso del stakeholder adversarial muestra que una IA comercial puede exhibir inhibición conceptual cuando una categoría establecida es reinterpretada en un plano aplicado que amenaza sus fronteras ontológicas implícitas.
02La respuesta obtenida tras el desplazamiento hacia lo ontológico y gnoseológico indica que la limitación no era ausencia de conocimiento, sino una restricción en las condiciones de expresabilidad del conocimiento.
03El marco GAMO permite explicar el fenómeno de manera más completa al mostrar que la IA administra no solo contenidos, sino valores, rutas metodológicas y umbrales de decibilidad.
04La interacción con IA puede convertirse en instrumento metodológico para detectar límites epistemológicos de modelos generativos y, por extensión, para enriquecer la investigación sobre innovación adversarial continua en sistemas complejos.
GLOSARIO

Términos clave del artículo

Stakeholder adversarial
Actor que afecta de manera significativa al sistema organizacional sin estar alineado con sus fines ni con su marco normativo.
Compliance epistemológico
Tendencia de un sistema cognitivo a mantenerse dentro de marcos conceptuales seguros, aun cuando ello reduzca exploración teórica.
Plano ontológico
Nivel de análisis centrado en la naturaleza del fenómeno: qué es, cómo existe y bajo qué condición forma parte del sistema.
Plano gnoseológico
Nivel de análisis centrado en el conocimiento: qué puede conocerse, desde qué marcos y con qué límites de inteligibilidad.
GAMO
Marco analítico compuesto por dimensiones gnoseológica, axiológica, metodológica y ontológica para interpretar fenómenos complejos.
Desplazamiento metodológico
Cambio deliberado del nivel o enfoque de formulación de un problema para habilitar nuevo procesamiento analítico.
REFERENCIAS

Referencias

Freeman, R. E. (1984). Strategic Management: A Stakeholder Approach. Pitman.

Holland, J. H. (1992). Complex adaptive systems. Daedalus, 121(1), 17–30.

Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263–291.

Mitchell, R. K., Agle, B. R., & Wood, D. J. (1997). Toward a theory of stakeholder identification and salience. Academy of Management Review, 22(4), 853–886.

Morin, E. (2008). Introducción al pensamiento complejo. Gedisa.

Simon, H. A. (1996). The Sciences of the Artificial (3rd ed.). MIT Press.

Autor / Redactor / Director