Algoritmos
Os algoritmos desempenham um papel cada vez mais importante na seleção das informações consideradas de maior relevância para nós, um aspecto fundamental da nossa participação na vida pública.
As ferramentas de busca nos ajudam a navegar em grandes bases de dados ou por toda a web. Os algoritmos de recomendação mapeiam nossas preferências em relação a outros usuários, trazendo ao nosso encontro sugestões associadas.
Juntos, eles não só nos ajudam a encontrar informações, mas nos fornecem meios para saber o que há para ser conhecido e como fazê-lo; a participar dos discursos sociais e políticos e de nos familiarizarmos com os públicos dos quais participamos.
Além disso, são hoje uma lógica central que controla os fluxos de informação dos quais dependemos, com o poder de possibilitar e atribuir significados, gerenciando como a informação é percebida pelos usuários.
Os algoritmos não são necessariamente softwares: em seu sentido mais amplo, são procedimentos codificados que, com base em cálculos específicos, transformam dados em resultados desejados. Os procedimentos dão nome tanto ao problema quanto aos passos pelos quais ele precisa passar para ser resolvido.
A avaliação algorítmica da informação, assim, representa uma lógica de conhecimento particular baseada em suposições específicas sobre o que é o conhecimento e como alguém deveria identificar seus componentes mais relevantes.
É necessário um questionamento dos algoritmos enquanto elemento central do nosso ecossistema informacional, e das formas culturais que emergem às suas sombras, prestando atenção especialmente em como e onde a introdução desses algoritmos nas práticas de conhecimento humano podem ter ramificações políticas.
Aqui destaco seis dimensões dos algoritmos de relevância pública que têm valor político:
1. Padrões de inclusão: as escolhas por trás do que gera um índice, em primeiro lugar; o que é excluído; e como os dados são preparados para o algoritmo.
2. Ciclos de antecipação: as implicações das tentativas dos provedores dos algoritmos de conhecer a fundo e prever completamente os seus usuários; e como importam as conclusões às quais eles chegam.
3. Avaliação de relevância: os critérios pelos quais os algoritmos determinam o que é relevante; como esses critérios nos são ocultados; e como eles implementam escolhas políticas acerca de um conhecimento considerado apropriado e legítimo.
4. A promessa da objetividade algorítmica: a maneira como o caráter técnico do algoritmo é situada como garantia de imparcialidade; e como essa alegação é mantida diante de controvérsias.
5. Entrelaçamento com a prática: como os usuários reconfiguram suas práticas para se adequar aos algoritmos dos quais dependem; e como podem transformar algoritmos em espaços de disputa política, às vezes até mesmo para questionar as políticas do próprio algoritmo.
6. A produção de públicos calculados: como a apresentação algorítmica dos públicos, para eles mesmos, molda uma noção de si desse público; e quem está em melhor posição para se beneficiar desse conhecimento.
Quando o Facebook, por exemplo, oferece como configuração de privacidade que as informações do usuário sejam vistas por “amigos e amigos de amigos”, ele transforma um conjunto distinto de usuários em uma audiência — trata-se de um grupo que não existia até aquele momento, e que só o Facebook sabe sua composição precisa.
Esses grupos gerados por algoritmos podem se sobrepor, podem ser uma aproximação imprecisa ou podem não ter nada a ver com os públicos que o usuário procurou. Alguns algoritmos vão além, fazendo afirmações sobre os públicos que pretendem conhecer e o lugar dos usuários no meio deles.
O algoritmo do “Trendings” do Twitter, por exemplo, promete aos usuários um vislumbre do que um público particular — nacional ou regional — está falando em um determinado momento, mas se trata de um público construído, moldado pelos critérios específicos do Twitter e que não são especificados em grande parte.
Uma análise sociológica não deve conceber os algoritmos como realizações técnicas abstratas, mas desvendar as escolhas humanas e institucionais que estão por trás desses mecanismos.
GILLESPIE, Tarleton [2014]. A relevância dos algoritmos. Parágrafo, São Paulo, v. 6, n. 1, p. 95-121, 2018.
Enem 2016c - 39
a) credibilidade das fontes na esfera computacional.
b) confiança do telespectador nas notícias veiculadas.
c) autonomia do internauta na busca de informações.
d) resistência do campo virtual à adulteração de dados.
e) interatividade dos programas de entretenimento abertos.
c) autonomia do internauta na busca de informações.
Enem 2013b - 18
a) isolamento das pessoas.
b) massificação dos gostos.
c) mercantilização das relações.
d) superficialidade das interações.
e) intelectualização dos internautas.
d) superficialidade das interações.
Enem 2016a - 08
a) equiperar uma ferramenta digital à tecnologia analógica.
b) aproximar uma mídia inovadora à passividade da recepção.
c) agregar uma tendência contemporânea à aceleração do tempo.
d) associar uma experiência superficial à abundância de informações.
e) condicionar uma capacidade individual à desorganização da rede.
d) associar uma experiência superficial à abundância de informações.