Los departamentos gubernamentales de toda Sudáfrica dependen cada vez más de herramientas digitales para evaluar programas públicos y monitorear el desempeño. Esto forma parte de reformas más amplias del sector público. Sus objetivos son mejorar la responsabilidad, responder a la presión de auditoría y gestionar programas a gran escala con personal y presupuestos limitados.
He aquí un ejemplo. Los departamentos nacionales que rastrean la entrega de viviendas, subsidios sociales o despliegue de infraestructura dependen de sistemas digitales de desempeño en lugar de informes periódicos en papel. Los Paneles – una forma de mostrar datos visuales en un solo lugar – proporcionan actualizaciones de seguimiento en tiempo real sobre la prestación de servicios.
Otro es el uso de plataformas que recopilan datos móviles. Estas permiten a funcionarios de primera línea y contratistas cargar información directamente desde el campo.
Ambos ejemplos se prestan al uso de inteligencia artificial (IA) para procesar grandes conjuntos de datos y generar conocimientos que antes habrían tardado meses en analizarse.
Este cambio a menudo se presenta como un paso adelante para la responsabilidad y eficiencia en el sector público.
Soy un académico de políticas públicas con un interés especial en el monitoreo y evaluación de programas gubernamentales. Mi investigación reciente muestra una tendencia preocupante: el giro hacia la tecnología se está desarrollando mucho más rápido que los marcos éticos y de gobernanza destinados a regularlo.
En todos los casos que he examinado, las herramientas digitales ya estaban integradas en los procesos rutinarios de monitoreo y evaluación. Pero no había estándares claros que guiaran su uso.
Esto presenta riesgos en torno a la vigilancia, exclusión, uso indebido de datos y juicio profesional deficiente. Estos riesgos no son abstractos. Dan forma a cómo los ciudadanos experimentan el estado, cómo se manejan sus datos y qué voces cuentan en última instancia en las decisiones políticas.
Cuando la tecnología supera a la política
La evaluación del sector público implica evaluar programas y políticas gubernamentales. Determina si:
- los recursos públicos se utilizan de manera efectiva
- los programas logran sus resultados previstos
- los ciudadanos pueden responsabilizar al estado por su desempeño.
Tradicionalmente, estas evaluaciones se basaban en el compromiso cara a cara entre comunidades, evaluadores, gobierno y otros. Incluían métodos cualitativos que permitían matices, explicación y construcción de confianza.
Las herramientas digitales han cambiado esto.
En mi investigación, entrevisté a evaluadores de gobierno, ONG, academia, asociaciones profesionales y consultorías privadas. Encontré una preocupación consistente en todos los ámbitos. Los sistemas digitales a menudo se introducen sin orientación ética adaptada a la práctica de evaluación.
La orientación ética proporcionaría reglas claras y prácticas sobre cómo se utilizan las herramientas digitales en las evaluaciones. Por ejemplo, al usar Paneles o análisis automatizado de datos, la orientación debería requerir que los evaluadores expliquen cómo se generan los datos, quién tiene acceso a ellos y cómo los hallazgos pueden afectar a las comunidades evaluadas. También debe prevenir el uso de sistemas digitales para monitorear individuos sin consentimiento o clasificar programas de maneras que ignoren el contexto.
La Ley de Protección de Información Personal de Sudáfrica proporciona un marco legal general para la protección de datos. Pero no aborda los dilemas éticos específicos que surgen cuando la evaluación se vuelve automatizada, basada en computación en la nube y mediada algorítmicamente.
El resultado es que los evaluadores a menudo quedan navegando un terreno ético complejo sin estándares claros. Esto obliga a las instituciones a confiar en precedentes, hábitos informales, prácticas pasadas y configuraciones predeterminadas de software.
Vigilancia progresiva y uso indebido de datos
Las plataformas digitales permiten recopilar grandes volúmenes de datos. Una vez que los datos se cargan en sistemas basados en computación en la nube o plataformas de terceros, el control sobre su almacenamiento, reutilización y compartición frecuentemente se traslada de los evaluadores a otros.
Varios evaluadores describieron situaciones en las que los datos que habían recopilado en nombre de departamentos gubernamentales fueron posteriormente reutilizados por los departamentos u otras Agencias estatales. Esto se hizo sin el conocimiento explícito de los participantes. Los procesos de consentimiento en entornos digitales a menudo se reducen a un solo clic.
Ejemplos de otros usos incluyeron otras formas de análisis, informes o monitoreo institucional.
Uno de los riesgos éticos que surgió de la investigación fue el uso de estos datos para vigilancia. Este es el uso de datos para monitorear individuos, comunidades o trabajadores de primera línea.
Exclusión digital y voces invisibles
Las herramientas de evaluación digital a menudo se presentan como una expansión del alcance y la participación. Pero en la práctica, pueden excluir a grupos ya marginados. Las comunidades con acceso limitado a internet, baja alfabetización digital, barreras lingüísticas o infraestructura poco confiable tienen menos probabilidades de participar plenamente en evaluaciones digitales.
Las herramientas automatizadas tienen limitaciones. Por ejemplo, pueden tener dificultades para procesar datos multilingües, acentos locales o formas de expresión culturalmente específicas. Esto conduce a representaciones parciales o distorsionadas de la experiencia vivida. Los evaluadores en mi estudio vieron esto suceder en la práctica.
Esta exclusión tiene consecuencias graves, especialmente en un país con desigualdad como Sudáfrica. Las evaluaciones que dependen en gran medida de herramientas digitales podrían encontrar poblaciones urbanas conectadas y hacer que las comunidades rurales o informales sean estadísticamente invisibles.
Esto no es meramente una limitación técnica. Da forma a qué necesidades se reconocen y qué experiencias informan las decisiones políticas. Si los datos de evaluación subrepresentan a los más vulnerables, los programas públicos pueden parecer más efectivos de lo que son. Esto enmascara fallas estructurales en lugar de abordarlas.
En mi estudio, algunas evaluaciones informaron tendencias de desempeño positivas a pesar de que los evaluadores notaron brechas en la recopilación de datos.
Los algoritmos no son neutrales
Los evaluadores también expresaron preocupaciones sobre la creciente autoridad otorgada a los resultados algorítmicos. Paneles, informes automatizados y análisis impulsado por IA a menudo se tratan como la imagen verdadera. Esto sucede incluso cuando entran en conflicto con el conocimiento basado en el campo o la comprensión contextual.
Por ejemplo, los Paneles pueden mostrar un objetivo como en camino. Pero en un ejemplo de una visita al sitio, los evaluadores pueden encontrar fallas o insatisfacción.
Varios participantes informaron presión de financiadores o instituciones para confiar en el análisis de los números.
Sin embargo, los algoritmos reflejan los supuestos, conjuntos de datos y prioridades incorporados en su diseño. Cuando se aplican acríticamente, pueden reproducir sesgos, simplificar excesivamente las dinámicas sociales y despreciar la perspectiva cualitativa.
Si los sistemas digitales dictan cómo deben recopilarse, analizarse e informarse los datos, los evaluadores corren el riesgo de convertirse en técnicos y no en profesionales independientes que ejercen juicio.
Por qué África necesita ética sensible al contexto
En toda África, las estrategias y políticas nacionales sobre tecnologías digitales a menudo se basan en gran medida en marcos internacionales. Estos se desarrollan en contextos muy diferentes. Los principios globales sobre ética de la IA y gobernanza de datos proporcionan puntos de referencia útiles. Pero no abordan adecuadamente las realidades de desigualdad, desconfianza histórica y acceso digital desigual en gran parte del sector público de África.
Mi investigación sostiene que la gobernanza ética para la evaluación digital debe ser sensible al contexto. Los estándares deben abordar:
- cómo se obtiene el consentimiento
- quién posee los datos de evaluación
- cómo se seleccionan y auditan las herramientas algorítmicas
- cómo se protege la independencia del evaluador.
Los marcos éticos deben integrarse en la etapa de diseño de los sistemas digitales.![]()
Lesedi Senamele Matlala, Profesora Senior e Investigadora en Políticas Públicas, Monitoreo y Evaluaciones, Universidad de Johannesburgo
Este artículo se republica de The Conversation bajo una licencia de Creative Commons. Lea el artículo original.


