Inteligencia artificial en el Estado: la línea fina entre brújula y trampa

OPINIÓN Agencia de Noticias del Interior
VWG7RJTGGNETFHOXOQO3MTR5ZE
  • La IA ya se usa en gobiernos, el debate es cómo aplicarla y con qué límites.
  • Ventajas: ahorro de tiempo administrativo, mejora de accesibilidad, atención continua y detección de errores.
  • Riesgos: pérdida de confidencialidad y soberanía tecnológica, sesgos que perpetúan injusticias y deterioro de capacidades críticas del Estado.
  • Algunos países regulan su uso para evitar abusos y cajas negras.
  • Escenarios negativos incluyen vigilancia selectiva, decisiones opacas y propaganda política dirigida.
  • Propuesta: uso de IA soberana, transparente y auditada, con supervisión humana y reglas claras.
  • Idea central: la IA es poder; su impacto depende de cómo se regule y controle.

Hasta hace poco, imaginar a un presidente o a un primer ministro consultando a un chatbot para tomar decisiones sonaba a ciencia ficción de bajo presupuesto. Hoy es noticia. El primer ministro de Suecia ya admitió que usa ChatGPT como “segunda opinión”. Y ahí está el dilema: no discutimos si la IA entra o no al Estado; ya está adentro. El verdadero debate es cómo, para qué y con qué límites.

En el lado luminoso, las posibilidades son tan evidentes como tentadoras. Un Estado está hecho de palabras: informes, minutas, oficios, borradores. Asistentes de IA pueden reducir drásticamente ese tiempo improductivo que los funcionarios dedican a formatear, resumir o buscar información. Un experimento británico reportó un ahorro de 26 minutos diarios por empleado. Multiplique eso por toda la administración pública y tendrá semanas de productividad recuperada por persona cada año. Tiempo que, bien diseñado, podría reinvertirse en servicio al ciudadano, no en más papeles.

Además, la IA puede romper barreras de accesibilidad: traducir en tiempo real a lenguas locales, explicar trámites en lenguaje claro, guiar a personas mayores o con discapacidad, detectar incoherencias en expedientes y ofrecer atención 24/7. Si el Estado es un laberinto, la IA bien usada es una brújula digital.

Pero el lado oscuro no es menos real. El primer riesgo es la confidencialidad y la gobernanza. ¿Qué datos se entregan a un modelo público o privado? ¿Existe protocolo? ¿Queda registro? La dependencia de proveedores externos sin control sobre el stack tecnológico es un camino rápido hacia la captura: precios, condiciones y disponibilidad dictados por otros. Y cuando el “know-how” del Estado queda en prompts y datasets que no puede auditar, la soberanía tecnológica se convierte en un eslogan vacío.

Segundo, el sesgo y la legitimidad. Los modelos aprenden de datos históricos, y los datos históricos arrastran inequidades reales. Si un algoritmo decide quién recibe un subsidio o dónde hacer inspecciones, puede automatizar injusticias con un barniz de eficiencia. El riesgo de optimizar procesos equivocados es tan alto como el de optimizar excusas.

Tercero, la atrofia institucional. Si todo memo, informe o análisis lo arranca una IA, se erosionan habilidades que el sector público no puede darse el lujo de perder: pensamiento crítico, síntesis, memoria institucional. La IA puede ser asistente, pero no reemplazo del criterio.

Algunos países ya avanzan en marcos regulatorios. La Unión Europea, con su AI Act, establece límites claros y clasifica riesgos, prohibiendo usos como el “social scoring” estatal. En Estados Unidos, la OMB exige inventarios de casos de uso, responsables claros, y reglas para evitar cajas negras. El mensaje es nítido: no es “sí o no a la IA”, es “sí, con barandas”.

Porque también hay escenarios distópicos que no requieren imaginación futurista. Un algoritmo “experimental” que identifica barrios de “alto riesgo” podría reforzar estigmas y disparar vigilancia selectiva. Un asistente ciudadano podría rechazar un reclamo basándose en criterios ocultos en un modelo opaco. Y la propaganda política hipersegmentada, diseñada por IA, podría convertir la conversación democrática en un zumbido invisible pero persistente.

La alternativa virtuosa existe: un “Asesor Ciudadano” estatal, basado en conocimiento público curado y trazable, modelos soberanos o desplegados en nubes seguras, reglas de uso claras y auditorías ciudadanas. Y un principio irrenunciable: toda decisión asistida por IA debe poder impugnarse ante un humano con autoridad.

Para lograrlo, cinco reglas prácticas: propósito claro; datos con gobernanza; humano al mando; adquisiciones inteligentes que eviten el lock-in; y transparencia radical de interacciones, resguardando la privacidad.

La pregunta “¿es bueno o malo que el Estado use IA?” está mal planteada. La IA no es buena ni mala: es poder. Y el poder se regula, se equilibra y se rinde. Usada para ampliar derechos y abrir la caja negra del Estado, puede ser un avance civilizatorio. Usada para reforzar controles y diluir responsabilidades, será una vuelta más en la espiral de lo que ya no funciona.

Últimas noticias
Te puede interesar
Lo más visto