04 · IA responsable

Human-in-the-loop en la IA del sector público

La IA puede mejorar radicalmente los servicios públicos. También puede hacer un daño difícil de reparar. La diferencia está en quién decide — y en si el ciudadano puede apelar.

Tema: IA · Ética · Sector público Por: Sofis Solutions Lectura: ~5 min

La tentación es grande: si un modelo puede clasificar expedientes mejor que un funcionario, ¿por qué no dejarlo decidir? Si puede detectar fraude más rápido, ¿por qué no darle la llave? La respuesta no es técnica, es institucional: las decisiones que afectan derechos del ciudadano no pueden delegarse a un modelo. Pueden asistirse, acelerarse y mejorarse — pero no delegarse.

Por qué la decisión pública es distinta

Cuando un sistema comercial se equivoca, hay un reclamo, un reembolso o un cambio de proveedor. Cuando el Estado se equivoca, hay un derecho vulnerado: una pensión negada, una beca perdida, una persona incluida en un listado de riesgo sin saberlo.

La decisión pública tiene tres exigencias que la diferencian:

Un modelo opaco, entrenado sobre datos que pueden reproducir sesgos históricos, no cumple ninguna de las tres por sí solo.

El modelo que defendemos: human-in-the-loop

En Sofis diseñamos las soluciones de IA para el Estado bajo una regla simple:

"La IA propone, el funcionario decide, el ciudadano puede apelar."

La IA hace el trabajo pesado: clasifica, sugiere, prioriza, detecta patrones, resume expedientes voluminosos. Eso libera tiempo del funcionario para hacer lo que un modelo no puede: aplicar criterio, contextualizar, escuchar a la persona del otro lado, ver lo que no está en los datos.

La decisión final, cuando afecta derechos, es humana y queda documentada.

Trazabilidad, explicabilidad, apelabilidad

Tres principios orientan cada diseño:

Dónde sí se puede automatizar

No toda tarea del Estado requiere un humano en el loop. Hay tareas donde el automatismo responsable acelera sin poner en juego derechos:

La clave es distinguir decisiones administrativas (sí, automatizar con control) de decisiones sustantivas sobre derechos (no, mantener humano en el loop).

En la práctica

Sofis cuenta con una Política de Gestión de IA que regula el uso interno y en proyectos de clientes. Todo sistema que incorpore IA sobre decisiones sensibles se diseña con trazabilidad, explicabilidad y apelabilidad desde la especificación, no después.

¿Por qué esto importa?

Porque la IA va a permear rápidamente al Estado, y porque la línea entre "asistir al funcionario" y "reemplazarlo" puede cruzarse sin que nadie se dé cuenta — hasta que un ciudadano queda del lado equivocado de un algoritmo.

Defender el humano en el loop no es freno a la innovación: es la condición para que la innovación en el sector público sea compatible con los derechos. Y en Sofis creemos que esa compatibilidad no se negocia.

Seguir leyendo

Ver otros insights

Otras miradas que cruzan nuestro trabajo con el Estado.