BLOG POST

OPINIÓN
 
MAR 2026
por Diana mosquera

El estado de la gobernanza de la IA: de la ética teórica a la realidad técnica

En los últimos años, la gobernanza de la inteligencia artificial ha avanzado significativamente en la formulación de principios éticos, marcos regulatorios y espacios de diálogo multiactor. Sin embargo, estos avances conviven con algunas brechas cada vez más evidentes: existe una brecha profunda entre lo que se promete en términos de transparencia, responsabilidad y equidad, y lo que realmente puede verificarse en la práctica [1][4]. Esta brecha no es accidental. Responde a una limitación estructural, estamos intentando gobernar sistemas que aún no comprendemos del todo.

Gobernanza más allá de la regulación

La gobernanza de la IA no puede reducirse a un listado de prohibiciones o principios normativos. Regular sin comprender es, en el mejor de los casos, ineficiente; en el peor, una forma de burocracia simbólica.
La verdadera gobernanza comienza con un entendimiento técnico profundo: mapear la arquitectura de los modelos, sus datos de entrenamiento, sus sesgos y su lógica de inferencia [2]. Sin esta base, la regulación carece de capacidad real de intervención. Gobernar implica poder auditar. Implica tener herramientas para abrir lo que hoy se presenta como una “caja negra”. En este sentido, la gobernanza de la IA no es únicamente un problema político o jurídico. Es, también, un desafío de ingeniería.

El desafío de la gobernanza técnica

Para que la gobernanza sea efectiva, necesitamos una infraestructura técnica que hoy sigue siendo incompleta. Este campo emergente conocido como Technical AI Governance (TAIG) pone sobre la mesa algunos de los problemas más críticos [6][3]:
¿Cómo verificar que un modelo no ha sido entrenado con datos sensibles o protegidos, si no tenemos acceso al dataset?
¿Cómo garantizar que un sistema pueda “olvidar” información específica sin comprometer su desempeño?
¿Cómo rastrear dónde y cómo se está utilizando la capacidad de cómputo en un contexto de tensiones geopolíticas?
Soluciones como los ataques de inferencia de membresía, el machine unlearning o la geolocalización de hardware apuntan a cerrar estas brechas. Pero aún estamos lejos de contar con herramientas maduras que permitan a reguladores, investigadores o sociedad civil auditar estos sistemas de forma independiente.

La IA como ecología sociotécnica

A esta complejidad técnica se suma otra dimensión frecuentemente ignorada: la IA no es solo software. Es una ecología global que depende de flujos profundamente desiguales de recursos, trabajo y conocimiento [2]. Gran parte de la gobernanza actual se enfoca en los impactos “downstream”: seguridad de las personas  usuarias finales, contenido dañino, riesgos inmediatos. Sin embargo, los impactos más invisibles y muchas veces más estructurales ocurren “upstream”: la extracción de minerales, el consumo intensivo de energía y agua, o el trabajo precario de moderación de contenido, concentrado en el Sur Global. Ignorar estas capas es limitar la gobernanza a la superficie del problema.
Una gobernanza efectiva debe, por tanto, adoptar un enfoque sistémico: reconocer la IA como una infraestructura sociotécnica global y avanzar hacia modelos de gobernanza que sean también pluriversales, es decir, capaces de adaptarse a distintos contextos ecológicos, culturales y políticos.

La brecha de transparencia


A pesar de los esfuerzos por promover la transparencia, existe una creciente crisis de confianza. Los reportes corporativos sobre modelos de IA son cada vez más limitados en aspectos clave como impacto ambiental, sesgos o condiciones laborales [1][5]. En muchos casos, las empresas priorizan evaluar riesgos reputacionales como la toxicidad del contenido, mientras descuidan áreas menos visibles pero igualmente críticas, como la privacidad o las condiciones de trabajo humano detrás de estos sistemas [4].

Hacia una gobernanza con infraestructura

Si algo queda claro, es que la gobernanza de la IA no puede seguir dependiendo exclusivamente de la autorregulación corporativa o de marcos legales desconectados de la realidad técnica. Se necesitan cambios estructurales:
Infraestructura pública
que permita auditar de forma independiente el uso de datos, energía y recursos.
Protecciones legales (safe harbors) que incentiven la transparencia y el reporte de fallos.
Cooperación internacional
para evitar dinámicas de competencia que ignoren los límites planetarios.
Sin estos elementos, la gobernanza seguirá atrapada entre la teoría legal y la opacidad técnica.

La importancia de la infraestructura local


Finalmente, cualquier discusión sobre gobernanza debe abordar la cuestión de la infraestructura. La soberanía tecnológica no se logra únicamente con regulación, sino con capacidad material: infraestructura local, sistemas de cifrado, y entornos de ejecución que garanticen privacidad y control sobre los datos [2]. En este contexto, la Infraestructura Pública Digital (DPI) emerge como un componente clave. No se trata solo de servidores, sino de ecosistemas que permiten el flujo seguro de información entre ciudadanos, gobiernos y organizaciones. Esto incluye identidad digital, interoperabilidad y sistemas que no dependan exclusivamente de actores privados globales. Más que un reto técnico, se trata de una apuesta política: construir una IA que funcione como bien público, y no únicamente como motor de acumulación privada.
Cerrar la brecha

Hoy, la gobernanza de la IA se encuentra en un punto de inflexión. Contamos con marcos normativos y principios bien desarrollados, y estamos comenzando a construir las herramientas técnicas necesarias. Pero los incentivos actuales siguen favoreciendo la opacidad. Cerrar esta brecha requiere algo más que nuevas regulaciones. Requiere repensar la gobernanza como infraestructura: algo que no solo define reglas, sino que permite verificarlas, auditarlas y transformarlas colectivamente, de lo contrario, seguiremos dependiendo de lo que las grandes empresas decidan mostrarnos.
[1] Bommasani, R., Klyman, K., Zhang, D., & Liang, P. (2025). The Foundation Model Transparency Index: 2025 Report. Stanford Institute for Human-Centered AI (HAI). [https://crfm.stanford.edu/fmti/](https://crfm.stanford.edu/fmti/)
[2] Domínguez, V., et al. (2024). Towards a Sociotechnical Framework for AI Governance: Bridging the Gap Between Technical Metrics and Social Impact. Journal of Artificial Intelligence Research.
[3] Gozalo-Brizuela, R., & Garrido-Merchán, E. C. (2025). Open Problems in Technical AI Governance (TAIG): A Survey on Machine Unlearning and Membership Inference. arXiv preprint arXiv:2501.
[4] Luccioni, A. S., et al. (2025). Measuring the Openness of AI Foundation Models: A Critical Analysis of Corporate Reporting vs. Independent Audits. Proceedings of the 2025 Conference on Fairness, Accountability, and Transparency (FAccT).
[5] OpenAI. (2024). Internal Red Teaming and Social Impact Report: Safety Evaluations for Frontier Models. OpenAI Blog/Safety Reports.
[6] Stanford University. (2024). Open Problems in Technical AI Governance. Technical AI Governance (TAIG) https://taig.stanford.edu/reports/open-problems-2024.pdf
Regresar ⇐

Contáctanos

Queremos saber de ti y mantenerte informado sobre nuestras iniciativas y proyectos. Agenda una llamada o completa el formulario.  
AGENDAR LLAMADA
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Diseñado y Desarrollado por Diversa
© 2025