Por Diana Mosquera
El estado de la gobernanza de la IA: de la ética teórica a la realidad técnica
En los últimos años, la gobernanza de la inteligencia artificial ha avanzado significativamente en la formulación de principios éticos, marcos regulatorios y espacios de diálogo multiactor. Sin embargo, estos avances conviven con algunas brechas cada vez más evidentes: existe una brecha profunda entre lo que se promete en términos de transparencia, responsabilidad y equidad, y lo que realmente puede verificarse en la práctica [1][4]. Esta brecha no es accidental. Responde a una limitación estructural, estamos intentando gobernar sistemas que aún no comprendemos del todo.
**Gobernanza más allá de la regulación
**La gobernanza de la IA no puede reducirse a un listado de prohibiciones o principios normativos. Regular sin comprender es, en el mejor de los casos, ineficiente; en el peor, una forma de burocracia simbólica.
La verdadera gobernanza comienza con un entendimiento técnico profundo: mapear la arquitectura de los modelos, sus datos de entrenamiento, sus sesgos y su lógica de inferencia [2]. Sin esta base, la regulación carece de capacidad real de intervención. Gobernar implica poder auditar. Implica tener herramientas para abrir lo que hoy se presenta como una “caja negra”. En este sentido, la gobernanza de la IA no es únicamente un problema político o jurídico. Es, también, un desafío de ingeniería.
**El desafío de la gobernanza técnica
Para que la gobernanza sea efectiva, necesitamos una infraestructura técnica que hoy sigue siendo incompleta. Este campo emergente conocido como Technical AI Governance (TAIG) pone sobre la mesa algunos de los problemas más críticos [6][3]:
¿Cómo verificar que un modelo no ha sido entrenado con datos sensibles o protegidos, si no tenemos acceso al dataset?
¿Cómo garantizar que un sistema pueda “olvidar” información específica sin comprometer su desempeño?
¿Cómo rastrear dónde y cómo se está utilizando la capacidad de cómputo en un contexto de tensiones geopolíticas?
Soluciones como los ataques de inferencia de membresía, el machine unlearning o la geolocalización de hardware apuntan a cerrar estas brechas. Pero aún estamos lejos de contar con herramientas maduras que permitan a reguladores, investigadores o sociedad civil auditar estos sistemas de forma independiente.
La IA como ecología sociotécnica
A esta complejidad técnica se suma otra dimensión frecuentemente ignorada: la IA no es solo software. Es una ecología global que depende de flujos profundamente desiguales de recursos, trabajo y conocimiento [2]. Gran parte de la gobernanza actual se enfoca en los impactos “downstream”: seguridad de las personas usuarias finales, contenido dañino, riesgos inmediatos. Sin embargo, los impactos más invisibles y muchas veces más estructurales ocurren “upstream”: la extracción de minerales, el consumo intensivo de energía y agua, o el trabajo precario de moderación de contenido, concentrado en el Sur Global. Ignorar estas capas es limitar la gobernanza a la superficie del problema.
Una gobernanza efectiva debe, por tanto, adoptar un enfoque sistémico: reconocer la IA como una infraestructura sociotécnica global y avanzar hacia modelos de gobernanza que sean también pluriversales, es decir, capaces de adaptarse a distintos contextos ecológicos, culturales y políticos.