¿Estados gobernados con Inteligencia Artificial?
Eduardo Lanes, El autor es CEO de Varegos y docente universitario
especializado en IA y autor del libro Humanware
La pregunta, que hasta hace no mucho hubiera sonado a disparate
distópico de ciencia ficción, hoy es una realidad incómoda: el
debate ya no es por “sí o no”, estamos en la etapa del “cómo, para
qué y con qué límites”. La inteligencia artificial en el sector
público puede ser un acelerador formidable de valor social o un
atajo hacia decisiones mediocres, burocracias automatizadas y
confianza pública erosionada. Depende del diseño, de la gobernanza
y, sobre todo, del poder que estemos dispuestos a delegar.
Arranco por lo obvio: la política ya está usando IA. Hace pocos
días, el primer ministro de Suecia reconoció que consulta ChatGPT y
otras herramientas “como segunda opinión”. En un punto es humano:
todos buscamos contraste antes de decidir. El problema aparece
cuando esa “segunda opinión” entra a la sala sin credenciales, sin
trazabilidad y sin responsabilidad jurídica. ¿Qué datos se le
dieron? ¿Quedó registro? ¿Hubo revisión humana? Las preguntas no son
paranoias; son condiciones básicas para el ejercicio responsable del
poder público.
Del lado luminoso, hay beneficios inmediatos y nada triviales. Un
Estado está hecho de texto: informes, notas, minutas, borradores,
respuestas a oficios. Asistentes de IA ya demostraron que pueden
ahorrar tiempo real en ese océano de documentos y pueden ser más
eficientes que los asistentes humanos. El Gobierno británico reportó
ahorros promedio de 26 minutos por día por funcionario en un ensayo
con miles de empleados.
No es magia; es menos tiempo formateando, resumiendo y buscando, y más tiempo en trabajo de criterio. Si se multiplica eso por toda una administración, son semanas de productividad recuperada por persona cada año. Bien diseñado, ese tiempo se puede reinvertir en servicio al ciudadano, no en “más papeles”.
Otra ventaja: accesibilidad. Un asistente estatal bien
entrenado puede responder 24/7 en lenguaje claro, traducir a lenguas
locales, evidenciar transparencia operativa, explicar trámites con
ejemplos, detectar incoherencias en expedientes y guiar a adultos
mayores o personas con discapacidad en tiempo real. Si el Estado es
un laberinto, la IA bien usada te presta una brújula digital.
Ahora, los riesgos. El primero es obvio y a la vez subestimado:
confidencialidad y gobernabilidad de la solución.
¿Tiene el gobierno la madurez necesaria para implementar y mantener de forma autónoma la solución, o depende de un proveedor del sector privado para hacerlo? Yendo al caso del primer ministro sueco que salió en las noticias, el cual aseguró que consulta a las IAs públicas, ¿Cuál es el protocolo de la información que esta entregando a los modelos para recibir feedback?
Segundo: sesgo y legitimidad. Los modelos aprenden de datos
históricos que reflejan inequidades reales. Si trasladamos esos
sesgos a decisiones de alto impacto —asignación de beneficios,
inspecciones, controles—, podemos terminar automatizando injusticias
con sello de “eficiencia”. Y la eficiencia mal medida es peligrosa:
si el KPI es “cerrar expedientes más rápido”, quizá el sistema
aprenda a filtrar casos complejos o a responder con generalidades.
La IA puede optimizar procesos o puede optimizar excusas. Si los
gobernantes utilizan modelos generales, ¿cómo nos aseguramos que no
sucumben ante los sesgos, criterios y potenciales manipulaciones de
los fabricantes?
Tercero: dependencia y captura. Si cada flujo crítico del
Estado corre sobre un stack propietario que no permite auditar,
versionar ni portar modelos, quedarán presos de un proveedor y de
sus cambios de precio, de política o de servicio. Esto ya pasó con
otros software; con IA es peor, porque el “know-how” está en
prompts, evaluaciones y datasets afinados que son parte del activo
del Estado. Perder eso es perder control operativo. El debate de la
soberanía de las IAs se vuelve absolutamente relevante, donde los
estados deben destinar presupuestos de innovación y tecnología para
poder operar desacoplados de los titanes tecnológicos actuales.
Cuarto: pérdida de calidad gubernamental. Si cada borrador,
cada memo y cada análisis lo arranca una IA, existe el riesgo de
atrofiar habilidades que el sector público necesita conservar:
escritura clara, pensamiento crítico, capacidad de síntesis, memoria
institucional.
¿Qué hacemos con todo esto? Algunos marcos ya pusieron la vara. La
UE avanzó con el AI Act, en vigor desde el 1 de agosto de 2024, que
ordena la casa por niveles de riesgo y marca límites claros (p. ej.,
prohíbe “social scoring” gubernamental). No resuelve todo, pero
establece un piso común para adquisiciones, evaluaciones y
transparencia, con un cronograma que escala obligaciones en 2025 y
2026. En EE. UU., la Oficina de Presupuesto (OMB) emitió memorandos
que exigen inventarios de casos de uso, responsables de IA, gestión
de riesgos y reglas de compra específicas para evitar cajas negras y
asegurar portabilidad. Otra vez: no es “sí o no a la IA”, es “sí,
con guardarails”.
Imaginemos ahora efectos colaterales menos obvios. En economía
política, la IA puede favorecer una “burocracia de la
verosimilitud”: documentos perfectos, lenguaje impecable, argumentos
bien formateados, pero con premisas débiles. La forma tapa la
sustancia y la velocidad abruma el escrutinio ciudadano. Otro
efecto: delegación de responsabilidad institucional. Si una decisión
salió mal, siempre existirá la tentación de culpar al sistema: la
herramienta recomendó. La responsabilidad no se delega totalmente,
pero se puede diluir. Y ahí perdemos todos.
¿Y los escenarios distópicos? No hace falta ir a ciencia
ficción.
Uno: un piloto “experimental” de análisis para asignar inspecciones
identifica barrios “de riesgo” combinando datos de denuncias,
consumo eléctrico y redes sociales. A corto plazo mejora la tasa de
hallazgos. A mediano, refuerza sesgos territoriales, parecerá
“confirmar” estigmas y encenderá un círculo vicioso de vigilancia
selectiva.
Dos: un asistente ciudadano ultra realista responde que no
corresponde tu reclamo porque “no cumplís criterio X”, pero el
criterio X está codificado en un modelo que nadie puede auditar. El
algoritmo se vuelve ley de facto. Tres: propaganda sintética
hipersegmentada, imposible de detectar a simple vista, diseñada por
agentes que prueban miles de variantes por minuto y aprenden de tus
respuestas. La conversación cívica, ya frágil, se convierte en un
enjambre de susurros invisibles.
También hay escenarios virtuosos que vale la pena perseguir. Un
Estado que crea su “Asesor Ciudadano”: conocimiento público (leyes,
jurisprudencia, estadísticas, manuales) curado y versionado, listo
para que cualquier modelo —propio o de terceros— responda con citas
y trazabilidad. Un repositorio de información y evaluaciones
abierto, con métricas públicas de calidad, sesgo y robustez. Modelos
soberanos o desplegados en nubes con garantías para información
sensible, y “cajas de vidrio” (system cards, reglas de uso, logging
auditable) accesibles por la ciudadanía. Y un principio simple:
derecho a una vía humana para impugnar una decisión asistida por IA.
Para llegar ahí, propongo cinco reglas prácticas:
- Propósito claro. Toda IA en gobierno debe responder a un problema público específico y medirse contra resultados reales (tiempos de espera, acceso, calidad de servicio), no contra métricas de vanidad tecnológica.
- Datos con gobernanza. Sin catálogos, calidad, permisos y trazabilidad de datos, no hay IA responsable. Publicar metadatos y políticas es tan importante como publicar código.
- Humano al mando. “Human-in-the-loop” con atribuciones de veto y registro de por qué se aceptó o rechazó una salida del modelo. La historia de decisiones es auditable.
- Procurement inteligente. Cláusulas de soberanía y portabilidad, benchmarks de desempeño, pruebas de robustez y sesgo antes de firmar, derecho a inspección posterior. Nada de lock-in sin plan de salida.
- Transparencia radical. Etiquetar interacciones automatizadas con trazabilidad y auditoría” (qué se preguntó, qué respondió el modelo, con qué fuentes), resguardando datos personales. Cuanta más transparencia, menos suspicacia.
¿Es positivo o negativo que los gobiernos usen IA? Mal planteada la pregunta. La IA no es buena ni mala: es poder. Y el poder se regula, se equilibra y se rinde. Si la usamos para ensanchar derechos, simplificar la vida cotidiana y abrir la caja negra del Estado, será un avance civilizatorio. Si la usamos para apretar tornillos de control, tercerizar criterio y maquillar decisiones, será otra vuelta de tuerca a lo que ya no funciona.
-
-
-
No hay comentarios.