Algoritmos e Democracia: Quem Decide o Que o Cidadão Vê?

Algoritmos e democracia: quem decide o que o cidadão vê?
Hoje, a resposta a essa pergunta influencia desde debates locais até eleições nacionais. Em vez de serem meras ferramentas técnicas, os algoritmos que sugerem notícias, vídeos e posts funcionam como curadores invisíveis do que milhões de pessoas consomem diariamente. Por isso, entender seu impacto não é apenas tarefa de especialistas: é tema central para quem governa, comunica e participa da vida pública.

Como os algoritmos atuam — e por que importam

Primeiro, é útil simplificar: algoritmos de plataformas (TikTok, YouTube, X, Facebook) priorizam conteúdo que maximize tempo de uso e engajamento. Assim, eles aprendem rápido o que prende cada usuário e passam a recomendar mais disso; portanto, o feed deixa de ser neutro e passa a refletir um desenho comercial de atenção. Em consequência, a exposição informativa de um cidadão deixa de ser apenas escolha individual e passa a ser, em parte, uma seleção algorítmica. 

Evidências e casos: o que a pesquisa mostra

Diversos estudos e investigações indicam efeitos reais desses mecanismos. Por exemplo, pesquisas sobre recomendações de vídeo mostram que sistemas podem empurrar usuários para conteúdos mais extremos ao priorizar sinais de engajamento; assim, usuários inicialmente moderados podem acabar expostos a material radicalizado ao longo do tempo. Em 2023, pesquisadores da UC Davis documentaram que recomendações de vídeo têm potencial de levar espectadores a “rabbit holes” de conteúdo extremista, algo que altera ecossistemas informacionais inteiros. 

Além disso, a discussão sobre uso de dados para fins políticos ganhou força com casos como o Cambridge Analytica, que explorou perfis e microsegmentação visando influenciar comportamento eleitoral; logo, o uso indevido de dados é uma vulnerabilidade democrática conhecida.

Por fim, pesquisas de opinião mostram que, embora muitas pessoas reconheçam os benefícios das redes sociais, elas também se preocupam com efeitos negativos sobre a democracia e pedem mais transparência sobre como as plataformas escolhem o conteúdo exibido. 

Riscos diretos para a democracia

Em linhas gerais, os algoritmos podem:

  • Amplificar desinformação porque ordens de prioridade favorecem conteúdo que gera reação imediata;
  • Criar bolhas e polarização, já que as recomendações reforçam preferências pré-existentes;
  • Desfavorabilizar minorias informativas, ao priorizar conteúdo fácil de monetizar;
  • Permitir microtargeting indevido com consequências eleitorais e de opinião pública.

Dessa forma, a tecnologia não é neutra; ela molda hábitos de consumo de informação e, em consequência, influencia processos deliberativos. 

O que já foi tentado — regulação, transparência e estudos de caso

Vários atores tentaram intervir. Em primeiro lugar, políticas de transparência de algoritmos e normas sobre anúncios políticos (na União Europeia, nos EUA e em recomendações da OCDE) surgem para reduzir riscos. Em segundo lugar, estudos de conformidade e auditorias independentes começaram a emergir, visando avaliar vieses e impactos. Por exemplo, a OCDE publicou padrões e guias sobre transparência algorítmica voltados ao setor público e à responsabilização tecnológica. Assim, a comunidade técnica e os reguladores já apontam caminhos práticos.

Entretanto, nem todas as soluções funcionam da mesma forma: algumas empresas adotaram mudanças superficiais, enquanto outras sofreram pressão pública para rever modelos de recomendação e publicidade. Ainda assim, a tendência é clara: governos e sociedades já tratam algoritmos como matéria de política pública.

O que prefeituras, conselhos e equipes de comunicação devem fazer — passos práticos

Se sua equipe gerencia canais institucionais ou depõe em decisões públicas, considere este plano prático e imediato:

  1. Mapear fluxos de informação localmente: identifique quais plataformas (TikTok, WhatsApp, YouTube, X) concentram público relevante. Em seguida, monitore a narrativa e sinais de ruído.
  2. Investir em monitoramento algorítmico: use ferramentas que rastreiem amplificação, picos e origens de menções; assim, você antecipa crises.
  3. Diversificar canais e formatos: não dependa só de uma plataforma; publique informações essenciais também em portal oficial otimizado (SEO), email, SMS e rádio local.
  4. Promover transparência e literacia: publique relatórios simples sobre como comunicam, e eduque a população sobre como funcionam recomendações e sobre checagem de informações.
  5. Exigir auditoria e contratos claros: quando fechar parcerias tecnológicas, peça cláusulas de auditoria e acesso a logs que expliquem como decisões automáticas afetam usuários.

Essas ações reduzem a dependência e aumentam resiliência informativa, enquanto melhoram a governança digital local.

Caso ilustrativo

Para entender o impacto em prática, olhe para investigações jornalísticas e experimentos recentes: em testes controlados, pesquisadores criaram contas “limpas” e observaram que, dependendo de interações mínimas, o feed do TikTok ou as recomendações do YouTube rapidamente se ajustaram, levando aqueles perfis a conteúdos tematicamente distantes do início. Esses experimentos mostram, de forma concreta, que pequenas ações geram redes de exposição que escalam e que, portanto, uma política pública desatenta pode observar surpresa tarde demais. 

Saiba mais

Para complementar a leitura com uma síntese acessível e poderosa sobre como plataformas competem pela atenção e moldam pensamentos, recomendo o TED Talk:

📺 Tristan Harris — “How a handful of tech companies control billions of minds every day” (TED).


Esse talk explica, de forma clara e documentada, os mecanismos de design persuasivo e as consequências para a sociedade e está disponível no repositório TED.

Quem regula o algoritmo pode virar protagonista político e por isso a sociedade precisa agir

A grande virada é esta: se algoritmos moldam o que as pessoas veem, então quem controla esses algoritmos detém poder de agenda. Por isso, a solução tecnológica não resolve sozinha; ela cria uma nova arena política. Consequentemente, governos locais, conselhos e agências de comunicação que acharem que “isso é assunto das big techs” correm risco, porque, cedo ou tarde, terão de responder por impactos locais. Portanto, mais do que reagir a crises, é preciso participar da definição de regras, exigir transparência, investir em literacia e construir ecossistemas de informação que priorizem a cidadania. Só assim a tecnologia passa de risco para uma ferramenta democrática.

Fontes


Leia também:

Somos uma agência identificada com a cidadania. Com gente que trabalha, estuda, ama, cresce e participa da vida comunitária.