Fique por dentro das novidades
Inscreva-se em nossa newsletter para receber atualizações sobre novas resoluções, dicas de estudo e informações que vão fazer a diferença na sua preparação!

Leia os textos a seguir e responda, em português, às perguntas.
Texto 1
“The following case study illustrates how Artificial Intelligence algorithms have impacted people’s lives.
Case: In 2020, due to Covid-19, the UK Education Ministry decided to standardize students’ final grades through a computerized system instead of relying solely on teacher-assessed grades.
Tool: Teachers were asked to rank students within each subject based on the estimated grades supplied by those same teachers. Then, an algorithm assigned students’ final grades by looking at student rankings, among other criteria.
Consequences: Thousands of pupils received grades lower than they had anticipated and the whole issue turned into a public scandal.
Reasons: Government officials argued that basing grades on teacher estimates alone would damage the credibility of that year’s results compared to previous years’ results.”
(PONCE DEL CASTILLO, A. (ed.). Artificial intelligence, labour and society. Bruxelas: ETUI, 2024, p. 14-15.)
Texto 2
Technochauvinism is a kind of bias that considers computational solutions superior to all others. It follows the misleading notion that “computers make neutral decisions because they are based on math”. But mathematical fairness and social fairness are different systems of logic, and computers can only calculate the former.
(Adaptado de BROUSSARD, M. More than a glitch: confronting race, gender and ability bias in tech. Cambridge, Massachusetts: The MIT Press, 2023, p. 5-6).
a) Indique, no quadro no campo de respostas, um agente humano e o agente não humano envolvidos no texto 1. Descreva as ações desempenhadas por eles.
b) A partir do texto 2, descreva o conceito de tecnochauvinismo. Em seguida, justifique por que o argumento apresentado pelas autoridades governamentais no texto 1 pode ser considerado um exemplo desse conceito.
a) Agente humano: os professores (e o Ministério da Educação do Reino Unido) atuam como agentes humanos.
Ações: os professores estimaram as notas dos alunos e os classificaram em rankings dentro de cada disciplina. O Ministério da Educação decidiu adotar um sistema computacional para padronizar as notas finais.
Agente não humano: o algoritmo de Inteligência Artificial é o agente não humano.
Ações: o algoritmo atribuiu as notas finais dos estudantes, utilizando critérios como o ranking fornecido pelos professores, substituindo parcialmente a avaliação humana direta.
b) Segundo o texto 2, tecnochauvinismo é a crença de que soluções computacionais são superiores às decisões humanas, por serem consideradas neutras, objetivas e baseadas em cálculos matemáticos. Essa visão ignora que a justiça social não pode ser plenamente capturada por modelos matemáticos. O argumento apresentado pelas autoridades governamentais no texto 1 pode ser considerado um exemplo de tecnochauvinismo porque elas confiaram no algoritmo como mais confiável do que a avaliação dos professores, acreditando que o sistema computacional garantiria maior credibilidade e neutralidade às notas. No entanto, essa confiança desconsiderou os impactos sociais da decisão, resultando em injustiça para milhares de estudantes e em um escândalo público. O caso evidencia que decisões baseadas exclusivamente em algoritmos não são neutras e podem reproduzir desigualdades, confirmando a crítica ao tecnochauvinismo apresentada no texto 2.
Inscreva-se em nossa newsletter para receber atualizações sobre novas resoluções, dicas de estudo e informações que vão fazer a diferença na sua preparação!