Gobernar con algoritmos: ¿y si el Estado también pudiera pensar?

Según el Índice Latinoamericano de IA 2023, México ocupa el cuarto lugar en digitalización de servicios públicos, pero cae al séptimo en generación de conocimiento estratégico con inteligencia artificial.

Aldo San Pedro · Hace 14 horas

Desde hace más de una década, se ha colocado en el centro del debate público la necesidad de transformar la relación entre el Estado y la ciudadanía mediante el uso de tecnologías inteligentes. En los últimos años, esa necesidad ha dejado de ser una aspiración para convertirse en una urgencia. La inteligencia artificial ha irrumpido en el sector público con la fuerza de una revolución silenciosa. Sin embargo, a diferencia de otros países que han diseñado estrategias integrales para aprovecharla con responsabilidad, México se encuentra todavía en una fase de transición, sin marcos normativos claros, sin mecanismos de evaluación, y sin una arquitectura institucional que garantice la equidad, la transparencia y la rendición de cuentas en el uso de sistemas automatizados. En este contexto, nos preguntamos: ¿y si el Estado también pudiera pensar?

Durante los últimos quince años, hemos sido testigos de una digitalización creciente del aparato gubernamental. Se han automatizado trámites, se han habilitado portales de servicios en línea y se ha modernizado parte de la infraestructura tecnológica. Pero esa digitalización ha sido más instrumental que estratégica. No se ha traducido en mejores decisiones públicas, ni en una inteligencia institucional capaz de prever crisis, asignar recursos con justicia o reducir los márgenes de error en políticas sociales. Según el Índice Latinoamericano de IA 2023, México ocupa el cuarto lugar en digitalización de servicios públicos, pero cae al séptimo en generación de conocimiento estratégico con inteligencia artificial. Ello evidencia una brecha entre la adopción tecnológica y la capacidad real del Estado para utilizarla con fines públicos.

Mientras tanto, en otras partes del mundo se han comenzado a explorar usos institucionales de la inteligencia artificial dentro de marcos regulados. En Canadá, por ejemplo, el gobierno federal ha implementado sistemas automatizados para apoyar decisiones en materias como inmigración y programas sociales, bajo un esquema obligatorio de Evaluación de Impacto Algorítmico (AIA) que permite identificar riesgos éticos y sociales antes de su despliegue. En Chile, instituciones públicas como el Servicio de Impuestos Internos han incorporado herramientas digitales avanzadas para fortalecer la detección de fraudes fiscales y mejorar la eficiencia operativa, aunque aún se requiere consolidar un marco normativo robusto. Estos casos muestran que el uso de algoritmos en funciones públicas puede integrarse con controles democráticos, siempre que existan normas claras, supervisión institucional y canales efectivos de revisión ciudadana.

Uno de los espacios donde ya se reconoce formalmente el papel de la inteligencia artificial en funciones gubernamentales es en la Auditoría Superior de la Federación (ASF). En su Programa de Transformación Digital 2024–2026, este órgano constitucional autónomo establece que la automatización, el uso de datos masivos y la inteligencia artificial deben ser parte integral del rediseño de procesos de fiscalización superior. El documento señala que la transformación digital en la ASF debe impulsar “flujos de trabajo inteligentes, automatización y el uso de la inteligencia artificial”, con el objetivo de mejorar la trazabilidad, la eficacia técnica y el alcance preventivo de las auditorías. Entre sus iniciativas sustantivas se incluyen herramientas como el Sistema de Control y Seguimiento de Auditorías (SICSA) y el Sistema de Fiscalización del Gasto Federalizado (SiCAF), que permiten el análisis estructurado de información, la planeación automatizada de auditorías y el registro electrónico con Firma Electrónica Avanzada. Estas plataformas no solo digitalizan el proceso: preparan el terreno para que la ASF pueda operar con un enfoque analítico basado en evidencia, capaz de detectar patrones de riesgo y orientar acciones de control en tiempo real.

Esta situación no es menor. La automatización sin regulación puede derivar en lo que especialistas llaman opacidad algorítmica: sistemas que deciden sin rendir cuentas, sin posibilidad de ser auditados o corregidos. El caso más emblemático es el del sistema COMPAS en Estados Unidos, que asignaba puntajes de reincidencia delictiva con sesgos raciales, perpetuando la discriminación estructural en lugar de corregirla. 

Te puede interesar:

LA NUEVA LEY DE ADQUISICIONES: estos son los cambios clave y cómo te afectarían

A pesar de todo, la coyuntura actual ofrece oportunidades únicas. La creación de la Agencia de Transformación Digital y Telecomunicaciones, el relanzamiento de la Coordinación de Estrategia Digital Nacional, y la Agenda Nacional de IA 2024–2030 son señales de que se está abriendo una ventana de transformación. Incluso en materia de seguridad, el anuncio de la Subsecretaría de Inteligencia e Investigación Policial representa una oportunidad para regular el uso de tecnología en tareas sensibles, evitando los excesos del pasado y priorizando el análisis preventivo sobre la represión arbitraria. Si se actúa con visión, estos avances podrían marcar el inicio de una nueva gobernanza algorítmica con rostro democrático.

Para ello, se propone una hoja de ruta mínima. En primer lugar, México debe aprobar una Ley General de Inteligencia Artificial para el Sector Público que clasifique los sistemas por nivel de riesgo, prohíba usos discriminatorios y establezca obligaciones de transparencia, trazabilidad y explicabilidad técnica. Esta ley debe operar como el marco rector para que las instituciones puedan usar IA sin vulnerar derechos ni ceder soberanía. En segundo lugar, es urgente crear un Sistema Nacional de Evaluación de Impacto Algorítmico, que permita detectar riesgos éticos, sociales y jurídicos antes de implementar cualquier sistema automatizado en funciones de gobierno. Esa evaluación debe ser pública, interdisciplinaria y periódica.

Además, se requiere establecer reglas claras de transparencia algorítmica por diseño. Todo sistema utilizado por el Estado debe informar si una decisión fue tomada o influida por una IA, cómo funciona, con qué datos fue entrenada y cómo puede ser impugnada. No se trata de saturar al ciudadano con lenguaje técnico, sino de garantizar el derecho a comprender y cuestionar. De igual forma, debe crearse una Agencia Nacional de Gobernanza Algorítmica con autonomía técnica y capacidad jurídica para emitir lineamientos, coordinar auditorías, aplicar sanciones y fungir como enlace entre dependencias, sociedad civil y academia.

Finalmente, la gobernanza algorítmica no podrá consolidarse sin participación ciudadana real. Las decisiones automatizadas no deben escapar del debate público. Se requiere establecer mecanismos de consulta, repositorios abiertos de algoritmos, mesas de coevaluación con actores sociales y reglas claras para la revisión y mejora continua. Si los algoritmos impactan la vida de millones de personas, millones de personas deben poder incidir en la forma en que esos algoritmos funcionan.

Gobernar con algoritmos no debe entenderse como la entrega del poder público a las máquinas, sino como una ampliación de las capacidades estatales al servicio de la justicia social, la transparencia y la responsabilidad pública. Que el Estado piense no con frialdad matemática, sino con inteligencia ética. Que la tecnología no se convierta en una barrera, sino en un puente. Y que la transformación digital no nos aleje del pueblo, sino que nos acerque a él, con datos, con evidencia, pero sobre todo, con humanidad. Porque si el Estado pudiera pensar, sería nuestra responsabilidad enseñarle a pensar con justicia.

[email protected]

X: @a_snpedro

Instagram: aldospm

Facebook: Aldo San Pedro


QUIZÁS PODRÍA INTERESARTE