Dairan Mathias Paul
Mestrando em Jornalismo no POSJOR e pesquisador do objETHOS

Após assassinar um casal de policiais, Larossi Aballa abre uma transmissão ao vivo no Facebook Live. Os treze minutos de vídeo mostraram os corpos das vítimas, a indecisão do marroquino sobre o que fazer com o filho do casal, de 3 anos, e falas de Aballa jurando aliança ao Estado Islâmico.

No final de setembro, jornalistas palestinos das agências Quds e Shebab News Agency tiveram suas contas bloqueadas no Facebook. As páginas foram restauradas no dia seguinte, com um pedido de desculpas da empresa: “nossa equipe processa milhões de relatórios a cada semana e às vezes cometemos erros. Nós lamentamos muito”. Os profissionais, por outro lado, relacionaram o bloqueio a um acordo feito entre o Facebook e o governo israelense para bloquear conteúdos que incitem a violência.

Mais de cinco milhões de pessoas assistiram ao vivo a morte de Philando Castile, em 6 de julho, por um streaming no Facebook Live. A transmissão foi realizada por sua noiva Diamond Reynolds, que pretendia denunciar a violência policial contra cidadãos negros norte-americanos. O vídeo inicialmente foi retirado do ar, mas voltou após alguns minutos. Tratou-se de um problema técnico, explicou o Facebook. O repórter do BuzzFeed Alex Kantrowitz observa que esse foi o mesmo argumento utilizado pela rede social quando grupos da rede que apoiavam o candidato Bernie Sanders desapareceram. Não muito diferente, a censura à transmissão de ativistas de Dakota que denunciaram prisões durante um protesto também teria sido fruto de erros da empresa.

Outro bloqueio recente foi realizado contra a icônica fotografia de Nick Ut Cong Huynh, vencedora do Pulitzer em 1973 e retrato da Guerra do Vietnã. A imagem, que mostra uma menina nua fugindo de bombas napalm, foi postada pelo escritor norueguês Tom Egeland e, em seguida, removida pelo Facebook por ser considerada pornografia infantil. Egeland também foi banido temporariamente do site. Em resposta, o editor-chefe Espen Egil Hansen, do jornal norueguês Aftenposten, escreveu uma carta para Mark Zuckerberg questionando os critérios da rede social. Como contrapartida, o veículo também foi advertido pelo Facebook. O mesmo ocorreu com a primeira-ministra da Noruega, Erna Solberg, que postou a foto e, em seguida, teve a imagem apagada. No dia 9 de setembro, a plataforma voltou atrás em sua decisão e, em comunicado, reconheceu a importância histórica da fotografia.

Capa do Aftenposten com a premiada foto censurada pelo Facebook. Fonte.
Capa do Aftenposten com a premiada foto censurada pelo Facebook

À Motherboard, o editor Hensen explica que escreveu a carta não apenas como uma preocupação específica no caso da foto do Vietnã. “É sobre o papel do Facebook. Sendo tão grande quanto eles são agora, sendo o maior distribuidor de notícias no mundo hoje, eles nunca – ou raramente – participam do debate sobre esse lado do Facebook. É uma preocupação crescente”.

Hensen enfatiza o papel de gatekeeper da rede, culminando, em última instância, numa série de bolhas que aprisionam o usuário, impedindo-o de ler pontos de vista divergentes dos seus. O problema, esclarece o editor-chefe do Aftenposten, não é o uso em si dos algoritmos na distribuição de notícias, mas o modo como eles são utilizados, enquanto uma estratégia de objetividade: “eu discordo quando eles querem enquadrar a si mesmos como uma companhia tecnológica pura e neutra, porque eles não são. Na verdade, eles estão tomando decisões editoriais do mesmo modo que eu tomo. Se você é uma poderosa companhia de mídia… em algum momento, você terá que vir a público para a sociedade, responder questões e discutir como se tornar melhor. O primeiro passo terá que ser admitir isso”.

Mas o caminho não é tão simples. Mark Zuckerberg, o criador da rede, tem repetido frequentemente que o Facebook não é uma companhia de mídia, e sim uma empresa de tecnologia. De fato, algumas diferenças devem ser notadas. No Columbia Journalism Review, Charlie Beckett destaca que o filtro dessas plataformas – incluindo outras redes, como Twitter e YouTube – é pós-publicação – diferente do processo jornalístico, que toma decisões enquanto seleciona seu material durante a apuração. Como são redes abertas, o volume de conteúdo analisado é gigante, tornando-se um desafio construir um sistema de inteligência artificial que dê conta de automatizar decisões. Contudo, é precisamente por isso que as plataformas assemelham-se a processos jornalísticos, em certa medida: no fundo, trata-se de tomar decisões editoriais, pré ou pós-publicação, o que envolve julgamentos de valor e cálculo de danos e prejuízos.

Algoritmo é a nova objetividade

Diante de um cenário complexo, em que proliferam livestreams de cenas violentas – vide os exemplos citados no começo desse texto -, como uma plataforma sozinha pode dar conta de monitorar tanto conteúdo? Beckett sublinha que esse é o preço de termos uma rede de acesso livre: alguns usuários, inevitavelmente, postarão materiais negativos. Mas isso não significa que o problema não pode ser minimamente enfrentado. Beckett traz duas sugestões simples para que o Facebook torne o seu processo de filtragem mais rigoroso: a contratação de uma equipe de fact-checkers ou, ainda, de jornalistas experientes para que atuem como editores. No entanto, isso só é possível se o Facebook admitir que possui um papel midiático, como fala Hansen.

Por ora, o horizonte não é tão próximo. A equipe de Zuckerberg demitiu recentemente os curadores dos Trending Topics, uma seção ainda indisponível no Brasil, com funcionamento semelhante ao seu homônimo no Twitter – um agregado de notícias quentes do momento. O sistema foi automatizado e passou a funcionar apenas por algoritmos para “operar em escala maior”.  Já no primeiro fim de semana de funcionamento, os TTs foram infestados por notícias falsas.

Vale notar que a substituição foi feita após uma reportagem revelar que a seção de Trending Topics, quando ainda estava sob controle de curadores, priorizava notícias liberais em detrimento daquelas de cunho conservador. À época, a matéria do site Gizmodo causou furor por vazar informações de ex-funcionários da empresa e colocar em xeque o título de “comunidade global”, onde “qualquer pessoa publica qualquer coisa”, discurso constantemente levantado por Zuckerberg.

Desde então, o Facebook sentiu-se pressionado a prestar contas publicamente sobre alguns de seus critérios. Foi assim quando divulgou as diversas mudanças no funcionamento do seu “algoritmo social”, que controla o News Feed. A mais recente implementação prioriza postagens de familiares e amigos – informações e entretenimento vêm em segundo lugar.

Ainda assim, vale notar que essa abertura não se refere tanto à parte voltada para notícias dentro da plataforma, mas, sim, ao seu aspecto de rede social. Em relação ao Trending Topics, o Facebook ainda mantém o discurso de que o uso dos algoritmos é neutro. Nesse sentido, vale recuperar a definição da pesquisadora Amanda Jurno, presente no artigo “Objetividade e algoritmos: o Facebook e a controvérsia na lista Trending”:

“Algoritmos são nada mais que fórmulas matemáticas que transformam um conteúdo de acordo com critérios pré-programados por alguém. Por exemplo, para programar um algoritmo que selecione ‘as notícias mais importantes e que estão sendo mais faladas na plataforma’, é preciso informar ao algoritmo o que significa ser ‘notícia’, ser ‘importante’ e ser ‘muito falada na plataforma’. Se queremos que o algoritmo selecione ‘links de notícia’, precisamos primeiro categorizar o que pode ser chamado de ‘link’ e o que pode ser chamado de ‘notícia’. Dessa forma, qualquer caracterização e/ou categorização é, em si, um processo subjetivo, o que faz com que o próprio processo de programação dos algoritmos contenha subjetividade”.

Curiosamente, se o Facebook deseja tanto se distanciar de uma companhia de mídia, o discurso que adota para isso é exatamente o mesmo de empresas de jornalismo: a objetividade na seleção das informações. Para a pesquisadora Roby Caplan, que assina o texto “Goste ou não, o Facebook é agora uma companhia de mídia”, esse é justamente um dos grandes problemas que a plataforma pode causar: a compreensão no senso comum de que a tecnologia pode ser neutra.

O problema, explica Caplan, é que as decisões do Facebook são feitas por “atores invisíveis” que mudam suas prioridades de acordo com suas vontades. “Usuários são levados a acreditar que o que eles veem reflete o interesse agregado dos usuários da plataforma, uma esfera pública computadorizada. Na realidade, o que eles veem é guiado por valores culturais e políticos, por objetivos econômicos e mercadológicos, governos, polícias e leis, assim como a própria visão de Mark Zuckerberg sobre o papel da tecnologia no mundo”.

Para Emily Bell, o Facebook acabou indo muito além do papel que desejava – bem mais do que uma rede social, a empresa é hoje parte do ecossistema de mídia. Não é difícil entender por que isso nos afeta – desde pesquisas que indicam o alto número de brasileiros que se informam pela plataforma, até a concentração de notícias no Instant Articles.

Não é à toa que a rede social é criticada por destruir a própria ideia de World Wide Web, que tem suas bases na cultura livre e compartilhada. Nesse sentido, o status megalomaníaco que o Facebook adquiriu com o tempo acaba representando, em certa medida, a própria privatização da internet, já que a rede tende a puxar seus usuários cada vez mais para dentro da plataforma, matando a cultura dos links e da livre navegação. Erroneamente, Internet e Facebook acabam tendo os mesmos significados. Futuramente, não é difícil de imaginar que o jornalismo pode ser considerado, no senso comum, como outro sinônimo para a plataforma de Zuckerberg – a despeito de sua falta de transparência e parâmetros éticos.

Advertisements