Isso tem nome
Voltar para Verbetes

Autoridade algorítmica

Processo pelo qual decisões técnicas passam a operar como instâncias normativas, deslocando a responsabilidade humana e produzindo obediência baseada na aparência de objetividade.

tecnologiasociologiapoderalgoritmosvigilância

Definição

A autoridade algorítmica descreve o fenômeno social e político onde sistemas automatizados recebem uma presunção de legitimidade, neutralidade e precisão superior à decisão humana. O conceito explica como "caixas-pretas" algorítmicas passam a atuar como árbitros da verdade, decidindo quem tem acesso a crédito, emprego, liberdade condicional ou visibilidade pública.

É fundamental diferenciar Autoridade Algorítmica de Algoritmocracia:

  • Autoridade algorítmica: refere-se à crença, à confiança e à submissão que pessoas e instituições depositam na máquina. É o processo de legitimação que faz com que um resultado matemático seja aceito como uma verdade inquestionável.
  • Algoritmocracia: refere-se ao sistema de governo e à estrutura de poder onde algoritmos ditam as regras de organização social. A autoridade algorítmica é o "cimento" ideológico que sustenta a estrutura da algoritmocracia.

Como afirma Frank Pasquale, vivemos em uma "Sociedade da Caixa-Preta", onde a autoridade para julgar e classificar cidadãos foi transferida para códigos proprietários, opacos e não auditáveis.

Como funciona

O mecanismo de construção dessa autoridade opera através de:

  1. Aura de objetividade: números e códigos são culturalmente percebidos como "livres de emoção", política ou preconceito, camuflando as escolhas subjetivas de quem os programou.
  2. Opacidade (Black Box): o funcionamento interno dos algoritmos é protegido como segredo industrial ou é complexo demais para leigos, impedindo o escrutínio público e blindando a autoridade técnica.
  3. Deslocamento de responsabilidade: gestores humanos usam a autoridade do algoritmo para se eximir de culpa por decisões impopulares ("foi o sistema que decidiu"), um fenômeno chamado de Moral Crumple Zones por Madeleine Elish.
  4. Feedback Loops (círculos viciosos): O sistema cria a realidade que diz apenas medir. Por exemplo, se a polícia é enviada apenas para bairros pobres baseada em dados históricos, ela encontrará mais crimes lá, reforçando a "autoridade" da previsão inicial.

Exemplos

  • COMPAS: Algoritmo usado em tribunais dos EUA para prever reincidência criminal. A ProPublica demonstrou que ele atribuía "alto risco" a réus negros com o dobro da frequência de brancos, influenciando juízes a darem penas mais duras, validando o racismo com a autoridade de um software "científico".

  • Recrutamento da Amazon: Uma IA desenvolvida para triagem de currículos aprendeu a penalizar candidatos que tivessem a palavra "mulheres" (como "capitã do time de xadrez de mulheres"), pois foi treinada em 10 anos de currículos predominantemente masculinos. A autoridade do histórico de dados validou o sexismo.

  • Gestão algorítmica (Uber/iFood): Trabalhadores de plataforma obedecem a rotas, preços e punições definidas pelo algoritmo sem poder de negociação. A autoridade do app é absoluta e a submissão é condição para o trabalho.

Quem é afetado

Embora afete toda a sociedade, a autoridade algorítmica recai com peso desproporcional sobre populações marginalizadas (pobres, negros, mulheres). Enquanto as classes altas muitas vezes têm acesso a intervenção humana (advogados, gerentes de banco), os pobres são geridos por sistemas automatizados rígidos em serviços sociais, policiamento e acesso a benefícios.

Por que é invisível

Porque opera sob o disfarce da conveniência técnica e da ciência de dados. Ao esconder que algoritmos são, nas palavras de Cathy O''Neil, "opiniões embutidas em código", a autoridade algorítmica naturaliza decisões políticas como se fossem fatos da natureza, desencorajando a contestação.

Efeitos

  • Desumanização: decisões complexas sobre vidas humanas são reduzidas a scores e métricas frias.
  • Manutenção de desigualdades: automatiza e escala preconceitos históricos sob uma fachada de neutralidade (Racismo Algorítmico).
  • Impossibilidade de apelação: o "computador disse não" torna-se a palavra final, corroendo o devido processo legal e o direito de defesa.
  • Obediência cega: profissionais (juízes, médicos, recrutadores) deixam de confiar em seu julgamento ético para seguir a recomendação da máquina.

Referências (BR)

  • Sergio Amadeu da Silveira
  • Tarcízio Silva
  • Fernanda Bruno

Referências (Internacionais)

  • Frank Pasquale
  • Cathy O'Neil
  • Virginia Eubanks
  • Safiya Noble
  • Clay Shirky

Temas relacionados