Os departamentos governamentais em toda a África do Sul estão cada vez mais a recorrer a ferramentas digitais para avaliar programas públicos e monitorizar o desempenho. Isto faz parte de umaOs departamentos governamentais em toda a África do Sul estão cada vez mais a recorrer a ferramentas digitais para avaliar programas públicos e monitorizar o desempenho. Isto faz parte de uma

A Monitorização Digital Está a Crescer no Serviço Público da África do Sul – A Regulamentação Precisa de Acompanhar

2026/02/16 12:49
Leu 7 min

Os departamentos governamentais em toda a África do Sul estão cada vez mais a depender de ferramentas digitais para avaliar programas públicos e monitorizar o desempenho. Isto faz parte de reformas mais amplas do sector público. Os seus objectivos são melhorar a responsabilização, responder à pressão de auditoria e gerir programas de grande escala com pessoal e orçamentos limitados.

Aqui está um exemplo. Os departamentos nacionais que acompanham a entrega de habitação, subsídios sociais ou implementação de infraestrutura dependem de sistemas digitais de desempenho em vez de relatórios periódicos em papel. Painéis – uma forma de mostrar dados visuais num só lugar – fornecem actualizações em tempo real sobre a prestação de serviços.

Outro é o uso de plataformas que recolhem dados móveis. Estas permitem que funcionários da linha da frente e contratantes carreguem informações directamente do terreno.

Ambos os exemplos prestam-se ao uso de inteligência artificial (IA) para processar grandes conjuntos de dados e gerar percepções que anteriormente teriam levado meses a analisar.

Esta mudança é frequentemente retratada como um passo em frente para a responsabilização e eficiência no sector público.

Sou um académico de políticas públicas com um interesse especial em monitorização e avaliação de programas governamentais. A minha pesquisa recente mostra uma tendência preocupante: a viragem para a tecnologia está a desenrolar-se muito mais rapidamente do que os quadros éticos e de governação destinados a regulá-la.

Nos casos que examinei, as ferramentas digitais já estavam incorporadas em processos de rotina de monitorização e avaliação. Mas não havia padrões claros a orientar o seu uso.

Isto apresenta riscos em torno de vigilância, exclusão, uso indevido de dados e julgamento profissional deficiente. Estes riscos não são abstractos. Eles moldam como os cidadãos vivenciam o Estado, como os seus dados são tratados e quais vozes acabam por contar nas decisões políticas.

Quando a tecnologia ultrapassa a política

A avaliação do sector público envolve avaliar programas e políticas governamentais. Determina se:

  • os recursos públicos são usados eficazmente
  • os programas atingem os seus resultados pretendidos
  • os cidadãos podem responsabilizar o Estado pelo desempenho.

Tradicionalmente, estas avaliações dependiam de envolvimento cara a cara entre comunidades, avaliadores, governo e outros. Incluíam métodos qualitativos que permitiam nuance, explicação e construção de confiança.

As ferramentas digitais mudaram isto.

Na minha pesquisa, entrevistei avaliadores do governo, ONGs, academia, associações profissionais e consultores privados. Encontrei uma preocupação consistente em geral. Os sistemas digitais são frequentemente introduzidos sem orientação ética adaptada à prática de avaliação.

A orientação ética forneceria regras claras e práticas sobre como as ferramentas digitais são usadas em avaliações. Por exemplo, ao usar painéis ou análise automatizada de dados, a orientação deveria exigir que os avaliadores expliquem como os dados são gerados, quem tem acesso a eles e como as descobertas podem afectar as comunidades a ser avaliadas. Também deveria prevenir o uso de sistemas digitais para monitorizar indivíduos sem consentimento ou classificar programas de formas que ignoram o contexto.

A Lei de Protecção de Informação Pessoal da África do Sul fornece um quadro legal geral para protecção de dados. Mas não aborda os dilemas éticos específicos que surgem quando a avaliação se torna automatizada, baseada na nuvem e mediada algoritmicamente.

O resultado é que os avaliadores são frequentemente deixados a navegar em terreno ético complexo sem padrões claros. Isto obriga as instituições a depender de precedentes, hábitos informais, práticas passadas e configurações padrão de software.

Expansão da vigilância e uso indevido de dados

As plataformas digitais tornam possível recolher grandes volumes de dados. Uma vez que os dados são carregados para sistemas baseados na nuvem ou plataformas de terceiros, o controlo sobre o seu armazenamento, reutilização e partilha frequentemente muda dos avaliadores para outros.

Vários avaliadores descreveram situações onde os dados que tinham recolhido em nome de departamentos governamentais foram posteriormente reutilizados pelos departamentos ou outras agências estatais. Isto foi feito sem conhecimento explícito dos participantes. Os processos de consentimento em ambientes digitais são frequentemente reduzidos a um único clique.

Exemplos de outros usos incluíam outras formas de análise, relatórios ou monitorização institucional.

Um dos riscos éticos que surgiu da pesquisa foi o uso destes dados para vigilância. Este é o uso de dados para monitorizar indivíduos, comunidades ou trabalhadores da linha da frente.

Exclusão digital e vozes invisíveis

As ferramentas de avaliação digital são frequentemente apresentadas como expandindo o alcance e participação. Mas na prática, podem excluir grupos já marginalizados. Comunidades com acesso limitado à internet, baixa literacia digital, barreiras linguísticas ou infraestrutura não confiável são menos propensas a participar plenamente em avaliações digitais.

As ferramentas automatizadas têm limitações. Por exemplo, podem ter dificuldade em processar dados multilingues, sotaques locais ou formas culturalmente específicas de expressão. Isto leva a representações parciais ou distorcidas da experiência vivida. Os avaliadores no meu estudo viram isto a acontecer na prática.

Esta exclusão tem consequências graves, especialmente num país com desigualdade como a África do Sul. Avaliações que dependem fortemente de ferramentas digitais podem encontrar populações urbanas e conectadas e tornar comunidades rurais ou informais estatisticamente invisíveis.

Isto não é meramente uma limitação técnica. Molda quais necessidades são reconhecidas e quais experiências informam decisões políticas. Se os dados de avaliação sub-representam os mais vulneráveis, os programas públicos podem parecer mais eficazes do que são. Isto mascara falhas estruturais em vez de abordá-las.

No meu estudo, algumas avaliações relataram tendências de desempenho positivas apesar dos avaliadores notarem lacunas na recolha de dados.

Os algoritmos não são neutros

Os avaliadores também levantaram preocupações sobre a crescente autoridade concedida a resultados algorítmicos. Painéis, relatórios automatizados e análises impulsionadas por IA são frequentemente tratados como a imagem verdadeira. Isto acontece mesmo quando entram em conflito com conhecimento baseado em terreno ou compreensão contextual.

Por exemplo, os painéis podem mostrar um alvo como no caminho certo. Mas num exemplo de visita ao local, os avaliadores podem encontrar falhas ou insatisfação.

Vários participantes relataram pressão de financiadores ou instituições para depender da análise dos números.

No entanto, os algoritmos reflectem as suposições, conjuntos de dados e prioridades incorporadas no seu design. Quando aplicados acriticamente, podem reproduzir preconceito, simplificar excessivamente dinâmicas sociais e desconsiderar percepção qualitativa.

Se os sistemas digitais ditam como os dados devem ser recolhidos, analisados e relatados, os avaliadores correm o risco de se tornarem técnicos e não profissionais independentes a exercer julgamento.

Por que África precisa de ética sensível ao contexto

Em toda a África, estratégias e políticas nacionais sobre tecnologias digitais frequentemente emprestam fortemente de quadros internacionais. Estes são desenvolvidos em contextos muito diferentes. Princípios globais sobre ética de IA e governação de dados fornecem pontos de referência úteis. Mas não abordam adequadamente as realidades de desigualdade, desconfiança histórica e acesso digital desigual em grande parte do sector público de África.

A minha pesquisa argumenta que a governação ética para avaliação digital deve ser sensível ao contexto. Os padrões devem abordar:

  • como o consentimento é obtido
  • quem possui os dados de avaliação
  • como as ferramentas algorítmicas são seleccionadas e auditadas
  • como a independência do avaliador é protegida.

Os quadros éticos devem ser incorporados na fase de design dos sistemas digitais.The Conversation

Lesedi Senamele Matlala, professor sénior e pesquisador em políticas públicas, monitorização e avaliações, Universidade de Joanesburgo

Este artigo é republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.

Oportunidade de mercado
Logo de PUBLIC
Cotação PUBLIC (PUBLIC)
$0.01491
$0.01491$0.01491
+0.33%
USD
Gráfico de preço em tempo real de PUBLIC (PUBLIC)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail [email protected] para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.