Por Diogo Ferreira
Você confia mais em um algoritmo ou em um funcionário público para decidir se você merece ou não um benefício social? Essa pode parecer uma pergunta absurda, mas é exatamente o tipo de questão que os governos ao redor do mundo estão enfrentando à medida que a inteligência artificial (IA) e a análise massiva de dados se infiltram cada vez mais nos processos de tomada de decisão.
Conceitos como "datateísmo", "discricionariedade digital" e "discricionariedade artificial" estão revolucionando a forma como os governos operam. Decisões que antes eram feitas por servidores públicos agora são delegadas a sistemas digitais e algoritmos. Mas será que podemos realmente confiar nessas máquinas para fazer escolhas que impactam a vida das pessoas? E como isso afeta a confiança da população nos governos?
Vamos mergulhar nessa fascinante (e um tanto assustadora) nova realidade, explorando os desafios e oportunidades trazidos pela automatização da tomada de decisão governamental. Vamos entender como estruturas de governança colaborativa podem ser uma alternativa para superar esses obstáculos e restabelecer a confiança dos cidadãos.
O datateísmo é a crença de que a melhor forma de tomar decisões é com base na análise de grandes conjuntos de dados, em detrimento de outras formas de conhecimento e julgamento humano. Essa abordagem busca encontrar padrões e insights ocultos nos dados, para então automatizar processos de tomada de decisão. Embora possa oferecer insights valiosos, o datateísmo também carrega o risco de supervalorizar os dados e ignorar outras fontes de informação relevantes, como a experiência humana e o conhecimento contextual.
A discricionariedade digital refere-se à capacidade de tomada de decisão automatizada por sistemas digitais, com base em conjuntos de dados e algoritmos pré-definidos. Isso significa que decisões que antes eram tomadas por servidores públicos e funcionários governamentais, agora podem ser delegadas a sistemas digitais. Por exemplo, a concessão de benefícios sociais pode ser automatizada, com base em critérios estabelecidos em algoritmos. Isso permite maior eficiência e agilidade, mas também levanta questões sobre transparência, responsabilização e possíveis vieses embutidos nos sistemas.
Já a discricionariedade artificial vai além, envolvendo a tomada de decisão por sistemas de IA que aprendem e se adaptam a partir de grandes volumes de dados. Esses sistemas podem identificar padrões e fazer inferências que vão além das regras pré-programadas, podendo tomar decisões que se distanciam daquelas que um ser humano tomaria. Isso traz novos desafios, pois há menor compreensão sobre o processo de decisão desses sistemas e sua previsibilidade.
A transferência de autoridade para algoritmos e IA pode afetar a confiança da população nos governos de diversas formas. Primeiro, há preocupações sobre a transparência e a responsabilização dessas decisões automatizadas, uma vez que os cidadãos podem ter dificuldade em compreender os critérios e a lógica por trás delas. Segundo, a possibilidade de vieses embutidos nos sistemas pode levar a resultados injustos ou discriminatórios, minando a percepção de equidade.
Para superar esses desafios, estruturas de governança colaborativa podem ser uma alternativa promissora. Nessa abordagem, os governos trabalham em parceria com a sociedade civil, especialistas e stakeholders para co-criar políticas e sistemas de tomada de decisão. Isso permite maior transparência, responsabilização e legitimidade, ao mesmo tempo em que aproveita a expertise de diferentes atores. Além disso, mecanismos de monitoramento e revisão humana podem ser integrados aos sistemas de IA, a fim de garantir a confiabilidade e a aderência às normas éticas.
À medida que o datateísmo, a discricionariedade digital e artificial ganham espaço nos processos de governança, é essencial que os governos adotem abordagens colaborativas e transparentes para fortalecer a confiança da população. Isso envolve equilibrar a eficiência propiciada pela automação com a responsabilização, a equidade e a legitimidade democrática. Somente assim poderemos aproveitar os benefícios da IA e da análise de dados, sem colocar em risco a confiança nas instituições públicas.
Referências
ALGORITHM WATCH. Algorithmic Accountability Report 2020. 2020. Disponível em: https://algorithmwatch.org/en/algorithm-report-2020/. Acesso em: 9 abr. 2024.
BOVENS, Mark; ZOURIDIS, Stavros. From Street-Level to System-Level Bureaucracies: How Information and Communication Technology is Transforming Administrative Discretion and Constitutional Control. Public Administration Review, v. 62, n. 2, p. 174-184, 2002.
CODAGNONE, Cristiano; MISURACA, Gianluca; SAVOLDELLI, Alberto. Blurring Boundaries and New Paradigms for eGovernment. Government Information Quarterly, v. 33, n. 4, p. 673-687, 2016.
VEALE, Michael; BRASS, Irina. Administration by Algorithm? Public Management Meets Public Sector Machine Learning. In: HILDEBRANDT, Mireille; O'HARA, Kieron (ed.). Life and the Law in the Era of Data-Driven Agency. Cheltenham: Edward Elgar Publishing, 2020. p. 121-148.
Comments