Fake news e ódio nas redes: como funciona o viés algorítmico

Fake news e ódio nas redes: como funciona o viés algorítmico

Com a aproximação das eleições, é essencial discutir um tema delicado relacionado às plataformas digitais, incluindo redes sociais, mecanismos de busca e prestadores de serviço na internet. Este ecossistema digital desempenha um papel crucial na formação da opinião pública e no direcionamento de informações.

Congresso em foco, por Beth Veloso – Uma pesquisa recente revelou que as interações que temos online tendem a ser influenciadas por direcionamentos políticos ou ideológicos, demonstrando que a tecnologia não é tão neutra quanto se afirma. Este é um ponto crítico, pois a imparcialidade é um valor fundamental nas democracias.

De acordo com a legislação de comunicação, nenhum meio deve priorizar, selecionar ou destacar uma notícia em detrimento de outra, uma vez que isso fere valores constitucionais como o direito à pluralidade e à autonomia do indivíduo. As emissoras de TV têm a obrigação de ouvir os dois lados em suas programações; como isso se aplica às redes sociais?

No entanto, pesquisas indicam que as plataformas digitais, apesar de não produzirem conteúdo, influenciam significativamente o que é visualizado. Por exemplo, o Facebook reconhece que conteúdos que provocam reações extremas são mais propensos a obter cliques, comentários e compartilhamentos. Esses engajamentos não necessariamente beneficiam os usuários, mas sim incentivam outros a produzirem mais conteúdo, gerando um ciclo vicioso de interações intensas.

Os estudos demonstram que os algoritmos são responsáveis pela maior parte do conteúdo que consumimos. Por exemplo, conforme o diretor de produtos do YouTube, Neal Mohan, mais de 70% do tempo que você passa assistindo no enorme site de vídeos do Google, você é atraído pelo serviço de recomendação baseado em I.A., de acordo com notícia publicada no site CNET de 2018.

Conforme publicado no jornal inglês The Guardian, Guillaume Chaslot, ex-engenheiro do Google, coletou vídeos recomendados pelo YouTube a partir de buscas por “Trump” e “Clinton”, entre agosto, outubro e novembro de 2016, coletando 8.052 vídeos e identificando um expressivo viés de recomendação de vídeos contrários a Hillary Clinton e favoráveis a Donald Trump.

Esses resultados foram apresentados no curso ‘Plataformas e Democracia: quando o Capital dá o tom e os Algoritmos, o compasso’, organizado pelo DiraCom, por Alexandre Arns Gonzales, pesquisador colaborador voluntário do Instituto de Ciência Política da UnB e integrante do DiraCom.

Um dos aspectos problemáticos é que esses sistemas, além de tendenciosos, não são auditáveis. Ou seja, os pesquisadores Ottoni, West, Almeida e Meira conseguem perceber que existe um viés de recomendação ideológico por parte das plataformas, como o YouTube, da Alphabet, mas o acesso aos dados não é permitido. Não é possível saber como o sistema de recomendação do YouTube funcionava no passado, mas eles analisaram o comportamento dos usuários comentando em cada vídeo, explica o pesquisador Alexandre Gonzales.

A constatação que os pesquisadores chegam é que verificaram esse duto de radicalização no YouTube. Porém, devido a uma série de questões sobre a metodologia, o universo de banco de dados e limitações quanto ao funcionamento do sistema algoritmo de recomendação em si, os pesquisadores fazem a ressalva que não podem atribuir um peso exato ao sistema de recomendação do YouTube na radicalização, mas não negam que ele tem um papel a desempenhar.

Até que ponto essa tendência dos sistemas algorítmicos de recomendação faz parte do modelo de negócio das plataformas, que pode estar favorecendo conteúdos nocivos para gerar mais tempo e maior engajamento dos usuários na rede, em busca da atenção dos usuários?

Uma das principais denúncias contra as plataformas veio de Frances Haugen, ex-funcionária do Facebook, que esteve na Câmara em depoimento e revelou que o Facebook sabe que conteúdos que suscitam reações extremas têm mais probabilidade de obter cliques, comentários e recompartilhamentos. E é interessante porque esses cliques, comentários e compartilhamentos não são, necessariamente, para o benefício dos usuários, mas porque sabem que outras pessoas produzirão mais conteúdo se receberem curtidas, comentários e recompartilhamentos.

A revelação vai muito além. Segundo a ex-diretora da rede Meta, a plataforma mentiu sobre suas estratégias e sistemas de negócio. O pesquisador Alexandre Gonzales destaca os complicadores éticos no padrão de conduta da Meta.

“O que Frances Haugen apresenta são documentos, pesquisas internas e comunicações internas da própria empresa, que mostram que o Facebook mentiu sobre o papel que tem no incentivo à produção e distribuição de conteúdos desinformativos, nocivos e incitadores da violência. O Facebook também mentiu sobre o impacto que seus serviços têm na saúde mental de jovens e crianças. Os documentos mostram que os próprios pesquisadores e engenheiros da empresa sabem que a eficácia apresentada ao público sobre o sistema algorítmico da empresa no enfrentamento e derrubada desse tipo de conteúdo e contas também é falsa.”

Outra discussão recorrente na mídia é sobre a tendência de privilegiar conteúdos incitadores de violência. O que as pesquisas mostraram sobre isso?

Um relatório interno da Meta, empresa formada pelo Facebook, WhatsApp e Instagram, intitulado “A Viagem de Carol ao QAnon”, ilustra como os sistemas de recomendação do Facebook podem conduzir os usuários a conteúdos extremistas. Os pesquisadores da empresa criaram uma conta fictícia e, em apenas dois dias, o Facebook recomendou que ela se juntasse a grupos dedicados ao QAnon. Em uma semana, o feed dessa conta estava repleto de grupos e páginas que violavam as próprias regras da plataforma contra discurso de ódio e desinformação.

Mesmo diante de todas essas informações, em abril de 2020, a direção do Facebook, incluindo Mark Zuckerberg, foi apresentada com uma lista de “intervenções suaves e duras” para reduzir a disseminação de conteúdos nocivos. Uma intervenção “dura” teria sido remover o “Meaningful Social Interactions” (MSI) dos sistemas de recomendação da plataforma. Porém, o CEO da empresa decidiu manter o MSI, expondo os usuários a conteúdos nocivos. Alexandre Gonzales explica que a decisão da plataforma é meramente comercial, visando aumentar o engajamento e fluxo de conteúdo, para aumentar o lucro da empresa.

O pesquisador revela ainda que a Meta declarou que não adota nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral, apenas fornece dados sobre remoções de conteúdo, visualizações e cliques em rótulos eleitorais. A solução para o problema dos vieses algorítmicos começa pela regulação das plataformas digitais.

“A regulação hoje é o primeiro passo importante para avançar e ter uma compreensão no debate público do real funcionamento dessas plataformas na moderação de conteúdo e sua relação com produtores e grupos econômicos que têm grande faixa de renda e atuação. Isso deve ser feito através de mecanismos de transparência e exigência de apresentação de relatórios mais detalhados e mais granulados do processo de tomada de decisão que essas empresas fazem.”

Esse tem sido um tema recorrente na Câmara, exceto por meio de propostas de regulação, como o PL 2630 de 2020 e outros projetos examinados em conjunto.

A esperança dos especialistas e técnicos atentos à desinformação, aos crimes digitais e ao discurso de ódio nas redes, que afetam inclusive crianças e adolescente, é que o debate sobre a regulação seja retomado com brevidade. Seja a partir do próprio PL 2630 ou usando-o como base para um novo projeto. A demora representa uma ameaça para a infância, para as famílias, para as instituições e para a democracia brasileira.

 

Envie seu Comentário

comments