Opinião
|
7 de agosto de 2023
|
09:26

Sistema algorítmico de recomendações: apontamentos sobre pesquisa promovida pela Meta (por Alexandre Arns Gonzales)

Imagem: Pixabay
Imagem: Pixabay

Alexandre Arns Gonzales (*)

1. A Meta iniciou, no último dia 28, a divulgação de uma série de estudos feitos por investigadores em parceria com a empresa sobre seus sistemas de ordenamento e recomendação e viés político no consumo de determinados tipos de Facebook. A iniciativa levanta questões sobre opacidade das plataformas, acesso a dados e independência na produção científica. Diante do debate atual relacionado ao esforço para compreender o funcionamento das plataformas digitais em geral e buscar formas de responsabilização das plataformas sobre riscos e ameaças decorrentes do funcionamento dos seus serviços, esse tipo de investigação merece análise criteriosa e crítica.

2. Essas pesquisas foram conduzidas com acesso inédito a dados do Facebook durante o período eleitoral de 2020 nos Estados Unidos (EUA) e pelo manancial de informações que – tanto no documento principal, os artigos em si, quanto pelos materiais em anexo disponível – vale a leitura atenta dos trabalhos realizados.

3. Dentro do rol de questões está o tema sobre os sistemas algorítmicos de recomendação de contas e conteúdos, abordado no artigo “Asymmetric ideological segregation in exposure to political news on Facebook”, publicado no dia 28 de julho de 2023 na Science. Além dele foram divulgados outros três artigos publicados na mesma edição da Science e na Nature e, como informou o diretor de assuntos globais da Meta, integram um conjunto de 16 artigos no total que ainda serão publicadas.

4. O artigo, como o título já indica, identifica uma segregação ideológica assimétrica ao analisar a exposição de “notícias políticas” (political news) nas plataformas. Para construir essa análise, a pesquisa listou um “inventário” de conteúdos produzidos pela rede de “amigos”, Páginas e Grupos que, aproximadamente, 208 milhões de usuários estadunidenses seguiam. Esse “inventário”, portanto, representou o universo de conteúdos com potencial de exposição (“potential exposure”) aos milhões de usuários. A curadoria de quais conteúdos seriam efetivamente expostos na News Feed dos usuários é executada pelos sistemas algorítmicos de recomendação da plataforma e é sobre essa diferença entre exposição potencial e exposição efetiva que os(as) pesquisadores(as) desenvolveram a análise e chegaram aos resultados que identificaram a segregação ideológica assimétrica entre usuários definidos como liberais e conservadores, avaliando também as diferenças de engajamento com esses conteúdos efetivamente expostos.

5. Contudo, como a própria pesquisa reconhece, a análise baseada na constituição desse “inventário” não considera na execução da curadoria a recomendação de “amigos”, Páginas e Grupos que não integram originalmente a rede dos usuários. Segue a transcrição do material da pesquisa explicando isso: “A composição do inventário é determinada, em outas palavras, pelo conteúdo postado pelas redes que usuários constroem no Facebook. Como a Figura S4 ilustra, isso significa que o inventário resulta de um outro processo de curadoria determinando a estrutura e composição do grafo do Facebook, que por si só resulta de dinâmicas sociais e algorítmica. Os dados que tivemos acesso não nos permitem analisar essa parte do processo e, portanto, não podemos determinar quanto do conteúdo do inventário é direcionado pela escolha dos usuários versus as propiciações da plataforma (incluindo recomendação algorítmica sobre quem seguir)” [1].

6. Nas considerações finais do artigo, os pesquisadores abordam diretamente o assunto sugerindo que pesquisas futuras deveriam poder analisar como os algoritmos de recomendação operam a curadoria sobre quem e o quê seguir: “pesquisas futuras devem analisar como o grafo social base e recomendação algorítmica sobre quem ou o que seguir determinam o inventário de conteúdo disponível na plataforma” [2].

7. A nuance é importante porque a recomendação de “amigos”, Páginas e Grupos que não integram originalmente a rede dos usuários pode ser uma das formas pelas quais os sistemas algorítmicos de recomendação estão favorecendo a produção de conteúdos nocivos ampliando sua de audiência. Por exemplo, o caso denunciado por Julia Carrie Wong que noticiou, em 2019, no The Guardian como os sistemas de recomendação do Facebook e YouTube estava priorizando em seus buscadores propaganda anti-vacina [3]. Ao fazer buscas em ambas plataformas por “vacina” ou “vacinação”, o preenchimento automático de sugestões priorizavam termos como “reedução vacinal”, “movimento da verdade sobre vacinação”, entre outros. No caso do Facebook, mesmo os resultados por “vacinação” apenas apresentavam Páginas e Grupos anti-vacinas.

8. Há outros casos que exemplificam a gravidade do problema da opacidade das plataformas digitais. Por exemplo, em 2022, durante as eleições no Brasil, o NetLab publicou o relatório de um experimento sobre com o sistema de recomendação do YouTube, indicando uma prevalência na plataforma por conteúdos produzidos pelo grupo Jovem Pan [4]. O assunto já foi levado, mas não aprofundado, em audiências públicas nos Estados Unidos em 2019, que debateu o poder de persuasão das tecnologias [5] e a atuação das plataformas no enfrentamento ao “extremismo” e “violência em massa” [6] , mas as indagações sobre o funcionamento do sistema de recomendação só foram direcionadas ao Google e YouTube.

9. Nos últimos anos as plataformas digitais em geral têm sido vinculadas como instrumento de produção e distribuição de desinformação e incitação à violência em todos os continentes no mundo. De lá para cá, dada a opacidade sobre como as empresas atuam, pouco se avançou na análise e compreensão de como os sistemas algorítmicos tem operado e quais os critérios para efetivamente avaliar o compromisso delas com a segurança. O caso sobre a eleição brasileira de 2022 e a intentona golpista de 8 de janeiro de 2023 em Brasília exemplifica os problemas de falta de transparência e responsabilização. Por exemplo, a Meta informou ao próprio Comitê de Supervisão que não adota “nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral” [7] , que divulga número de suas ações de moderação, mas não tem parâmetro para avaliar seu sucesso ou fracasso. Não à toa que o acesso a dados das plataformas digitais para a pesquisa passou a ser reivindicado como regra, como é o exemplo da Lei de Serviço Digital Europeia (Digital Service Act), e está sendo debatida em torno do Projeto de Lei 2630 de 2020 no Brasil.

10. As insuficiências da pesquisa, apresentadas pelos próprios investigadores, demonstra que mesmo com cooperação das empresas é necessário avançar na garantia de mecanismos de transparência. A compreensão esse aspecto dos sistemas de recomendação contribuiriam para o debate público sobre a responsabilidade ativa das empresas com contas e conteúdos potencialmente nocivas, para além, mas não menos grave, dos casos de monetização, em que as plataformas digitais pagam financeiramente produtores desses conteúdos.

Notas:

[1] O texto original é: “The composition of the inventory is determined, in other words, by the content posted by the networks users build on Facebook. As figure S4 illustrates, this means that the inventory results from another curation process determining the structure and composition of the Facebook graph, which itself results from social and algorithmic dynamics. The data we have access to does not allow us to analyze this part of the process, and thus we cannot determine how much of the content in the inventory is driven by choices made by users versus platform affordances (including algorithmic recommendations on who to follow)”. Ver em “Supplementary Materials for Asymmetric ideological segregation in exposure to political news on Facebook”.

[2] Texto original: “future research should analyze how the underlying social graph, and algorithmic recommendations on whom or what to follow, determine the inventory of content available on the platform”

[3] Wong, Julia C. (2019). How Facebook and YouTube help spread anti-vaxxer propaganda. The Guardian. 1 de Fevereiro.

[4] Netlab UFRJ. Recomendação no Youtube: o caso Jovem Pan. 5 de Setembro de 2022, Escola de Comunicação da Universidade Federal do Rio de Janeiro, Brasil.

[5] EUA (2019). Optimizing for Engagement: Understanding the Use of Persuasive Technology on Internet Platforms. 25 de junho de 2019. Senado.

[6] EUA (2019). Mass Violence, Extremism, and Digital Responsibility. 19 de setembro. Senado.

[7] Comitê de Supervisão da Meta sobre o caso “Discurso de general brasileiro”.

(*) Pesquisador Colaborador do Instituto de Ciência Política da Universidade de Brasília, autor da tese de doutorado “A Economia Política de Dados e Eleições: ‘Peço Teu Voto e Teus Dados’” e membro do coletivo Direitos à Comunicação e Democracia (DiraCom).

***

As opiniões emitidas nos artigos publicados no espaço de opinião expressam a posição de seu autor e não necessariamente representam o pensamento editorial do Sul21


Leia também
Compartilhe:  
Assine o sul21
Democracia, diversidade e direitos: invista na produção de reportagens especiais, fotos, vídeos e podcast.
Assine agora