Facebook dá tratamento preferencial a conservadores e põe em risco seu programa de fact-checking

    Parceiros do Facebook que atuam na verificação de fatos dizem que não sabem quais são os critérios da empresa para decidir qual conteúdo deve ser derrubado e qual deve ser mantido.

    No dia 8 de maio, a Prager University, um veículo de comunicação conservador sem fins lucrativos, publicou um vídeo no Facebook que alegou incorretamente que “não há evidências de que as emissões de CO2 sejam o fator dominante” nas mudanças climáticas. Dias depois, a Climate Feedback, uma rede apartidária de cientistas e membro da parceria de verificação de fatos do Facebook, avaliou o conteúdo como falso — uma designação que se esperava que resultasse em sérias consequências.

    Foi a segunda ocorrência da PragerU com conteúdo falso naquele mês, o que, sob as próprias políticas do Facebook, deveria ter imposto penalidades de “infração repetida”, incluindo a revogação de privilégios de publicação e o espectro de possível eliminação.

    Mas não aconteceu. Conforme relatado pela primeira vez pelo BuzzFeed News, um funcionário do Facebook interveio em nome da PragerU e pediu por uma reavaliação do julgamento, citando "sensibilidade de parceria" e a quantia de dinheiro que a organização gastou em anúncios. No final das contas, enquanto as etiquetas de "falso" nas postagens da PragerU permaneceram, o Facebook retirou as ocorrências dos seus registros internos e ninguém — nem o público, nem os verificadores de fatos, nem os próprios funcionários do Facebook — foi informado da decisão.

    Enquanto isso, a PragerU se beneficiou com as verificações de fatos sobre as suas informações erradas a respeito da mudança climática. Em 19 de maio — no dia em que ela cometeu a primeira ocorrência de conteúdo falso — ela lançou um levantamento de fundos. "O Facebook está utilizando serviços terceirizados de fact-checking para censurar conservadores", disse a organização para os seus mais de 4,2 milhões de seguidores. "O Facebook é o novo árbitro da verdade agora?"

    A campanha levantou US$ 21.637.

    Desde, pelo menos, o final de 2016, o CEO Mark Zuckerberg defendeu o Facebook insistindo que não deveria ser "um árbitro da verdade" enquanto criava um programa de verificação de fatos com terceiros para preencher essa função de arbitragem. Mas os jornalistas e pesquisadores nas dezenas de organizações que compõem a operação de verificação de fatos do Facebook dizem que a empresa geralmente é isso mesmo. Alguns disseram ao BuzzFeed News que estavam surpresos com o fato de que os seus vereditos eram ignorados ou invalidados pelo Facebook em um processo ocorrido a portas fechadas com pouca transparência e avisaram que esses riscos minavam a credibilidade do programa.

    "Eles são os árbitros das consequências de publicar informações falsas ou enganosas", disse um verificador de fatos que pediu para não ter o nome citado por medo de repercussões por parte do Facebook.

    "Se as pessoas quiserem se evadir das consequências, é fácil", acrescentou ele.

    "Eles são os árbitros das consequências de publicar informações falsas ou enganosas."

    Alguns funcionários na rede social concordaram. Na semana passada, depois de o BuzzFeed News ter revelado que os executivos e funcionários do Facebook estavam intervindo nas disputas de verificação de fatos em nome de editores de direita, os funcionários se perguntaram se a empresa estava cedendo a críticas barulhentas e pressão política.

    “Mark gosta de dizer como o Facebook não deve ser 'o árbitro da verdade'", escreveu um funcionário em um grupo interno de funcionários do Facebook. "Mas o que tem ocorrido com parceiros considerados 'sensíveis' soa exatamente como nós nos intrometendo nessa área. Como reconciliamos essa contradição?"

    Evelyn Douek, uma palestrante na Faculdade de Direito de Harvard, disse que, mesmo que o Facebook não queira fazer o papel de declarar o que é verdadeiro e falso, ele ainda faz muitas escolhas sobre como estrutura as suas políticas e o seu programa de verificação de fatos que o deixam "no banco do motorista”.

    "Haverá uma grande avaliação sobre a verificação de fatos", disse ela. "As pessoas não entendem isso, e elas veem isso como uma panaceia para problemas nas plataformas de redes sociais."

    O Facebook não respondeu uma lista de perguntas específicas relacionadas ao tratamento preferencial de páginas de direita que receberam advertências relacionadas a desinformação. Antes, a empresa tinha dito que, enquanto "acata a avaliação dos verificadores de fatos terceirizos sobre os conteúdos", só é "responsável por como gerenciamos o nosso sistema interno para quem comete infrações repetidas".

    "O Facebook é a única empresa a fazer parceria com mais de 70 organizações de verificação de fatos no mundo todo para lutar contra a dispersão de desinformação viral” disse Liz Bourgeois, porta-voz do Facebook em uma declaração para este artigo. "Não há manual de estratégia para um programa como o nosso, e estamos constantemente trabalhando para melhorá-lo com base nas opiniões dos nossos parceiros e no que vemos na nossa plataforma."

    “O árbitro da verdade"

    Quatro dias depois da eleição presidencial de 2016 dos EUA, Zuckerberg postou um mea culpa no Facebook dizendo que o surgimento de evidências de que a desinformação se espalhou e se amplificou na plataforma pode ter influenciado o resultado da eleição.

    "Identificar a 'verdade' é complicado", escreveu ele. "Enquanto alguns boatos podem ser completamente desmentidos, uma grande quantidade de conteúdo, incluindo de fontes principais, geralmente acertam na ideia básica, mas com alguns detalhes errados ou omitidos. ... Eu acredito que devemos ser extremamente cautelosos quanto a nós mesmos nos tornarmos árbitros da verdade."

    O Facebook lançou um programa de verificação de fatos por terceiros um mês depois da postagem de Zuckerberg, e o sentimento do seu CEO se tornou uma abstenção comum por parte dos executivos da rede social. Debates sobre se o Facebook é uma empresa de notícias que é responsável pelo conteúdo na sua plataforma levantaram o questionamento sobre se a empresa ou não deve representar um papel na identificação — e remoção subsequente — de desinformação.

    Agora, enquanto os EUA seguem rumo a outra eleição presidencial litigiosa, Zuckerberg está novamente levantando o assunto de "árbitro da verdade". "Eu acredito fortemente que o Facebook não deve ser o árbitro da verdade de tudo que as pessoas dizem on-line", disse ele na Fox News em maio. "Empresas privadas provavelmente não deveriam ser, especialmente essas empresas de plataforma, não deveriam estar na posição de fazer isso."

    "Eles dizem: 'Nós não queremos ser os árbitros da verdade', mas eles querem ser os árbitros que decidem se uma página cai ou não."

    Mas discussões e documentos internos recentemente obtidos pelo BuzzFeed News e pela NBC News revelaram que o Facebook vem feito só isso, decidindo se penaliza ou não páginas depois que recebem advertências sobre desinformação e, às vezes, deixa de lado julgamentos feitos pelos seus parceiros de verificação de fatos possivelmente por medo de retaliações políticas ou perda de receita. Diferente dos verificadores de fatos, o Facebook não revela as razões e evidências de que faz uso para tomar as decisões de remover advertências de desinformação ou, em outros contextos, escolher invalidar os seus parceiros de verificação de fatos.

    “O problema com o que estamos fazendo é que estão dizendo: 'Nós não queremos ser os árbitros da verdade', mas eles querem arbitrar sobre se as páginas caem ou não”, disse Peter Cunliffe-Jones, fundador do Africa Check, que agora serve como conselheiro da International Fact-Checking Network. "E não há transparência sobre esse processo de tomada de decisões."

    Cunliffe-Jones sugeriu que o Facebook pega uma página dos seus verificadores de fatos e publica a sua explicação de remover as advertências de desinformação e outras reversões, para que isso mine a confiança no processo inteiro.

    “Eu entendo que nem o Facebook pode fornecer mínimos detalhes sobre cada decisão tomada em meio a milhões de decisões, mas eles podem sobre as mais significativas", disse ele. "Eu acho que isso ajudaria a construir confiança no processo. E se o processo (no Facebook) não é confiável, isso poderia expô-lo.”

    A falta de transparência no que Cunliffe-Jones se referiu deixou os próprios funcionários do Facebook agitados. Continuando com o artigo do BuzzFeed News que revelou tratamento preferencial para páginas conservadoras e intervenções pessoais de executivos, incluindo o vice-presidente de políticas públicas globais, Joel Kaplan, um fórum interno chamado “Vamos consertar o Facebook (a empresa),” que tem cerca de 10.000 membros, explodiu com a quantidade de conversas.

    "O silêncio quanto a isso é inaceitável. Tanto a intervenção do fluxo quanto as demissões", escreveu um funcionário, se referindo às remoções de advertências de desinformação e à demissão de um engenheiro que reuniu e revelou evidências disso.

    "Podemos usar isso como uma oportunidade para sermos mais transparentes quanto à verificação de fatos em geral?", perguntou outro funcionário. "Não só internamente, mas também aos nossos usuários? Como agravamentos e apelações funcionam, quem pode fazê-los, quem os está fazendo, estatísticas agregadas sobre postagens marcadas..."

    "Se alguém no Facebook está tentando nos ajudar, não está fazendo um bom trabalho."

    A falta de transparência também estressou aqueles que foram penalizados por regras de desinformação, incluindo os executivos da PragerU. Craig Strazzeri, chefe de marketing da PragerU, disse que a sua organização apelou da decisão de verificação de fatos junto à Climate Feedback em maio, mas não estava ciente de nenhum funcionário do Facebook trabalhando em seu nome para remover as advertências.

    “Se alguém no Facebook está tentando nos ajudar, não está fazendo um bom trabalho”, disse Strazzeri, observando que o alcance orgânico da PragerU foi cortado depois das duas verificações de fatos falsas. A PragerU ainda pôde veicular anúncios durante aquele período, de acordo com Strazzeri, que percebeu que a página da empresa está novamente sob investigação depois de mais duas advertências de desinformação desde maio.

    Emmanuel Vincent, diretor da Science Feedback, a organização sem fins lucrativos que administra a Climate Feedback, disse que a PragerU só recorreu a um dos seus dois vereditos de maio, que foi considerado falso. Ele está preocupado com o fato de que a PragerU tenha encontrado uma forma de usar as verificações de fatos para vantagem própria.

    "Cada vez que recebem uma advertência, eles ganham dinheiro”, disse ele.

    Mark Zuckerberg is on a screen on a videoconferencing call set up in the Capitol while lawmakers sitting in the background wear facemasks

    Infrações repetidas

    O nível de atenção a preocupações com o Facebook por parte de conservadores americanos na sua plataforma é diferente de qualquer eleitorado no mundo, de acordo com os verificadores de fatos que falaram com o BuzzFeed News. Alguns se preocupam que isso seja prejudicial a esforços internacionais de policiar a plataforma devido a desinformação. Cunliffe-Jones disse ao BuzzFeed News que o Facebook falhou em agir contra aplicar advertências de infração repetida contra páginas financeiras falsas em países como o Quênia.

    “Ficou claro desde o começo que há um problema com a forma com que as páginas que cometeram infrações repetidas continuam a funcionar”, disse Cunliffe-Jones. "Eu percebi isso em páginas que passaram pelo processo de verificação de fatos repetidas vezes (no Quênia). Com essas páginas, eu não acho que seja um jogo político. Eu acho que é falta de atenção — o que também é prejudicial."

    Outros verificadores de fatos internacionais disseram que a ênfase do Facebook na eleição americana faz com que a empresa seja menos ágil para resolver problemas em outras partes do mundo. Um jornalista em uma agência de verificação de fatos em um país do G7 disse que a falta de pessoal local no Facebook faz com que a empresa às vezes peça ajuda aos seus parceiros de verificação de fatos para tomar decisões sobre como aplicar a sua política.

    "Eles não estão tão bem guarnecidos de funcionários assim em outros mercados fora dos EUA. Então, eles se apoiam um pouco mais nos parceiros de verificação de fatos sobre as coisas da política", disse o jornalista.

    Bourgeois disse que o Facebook valoriza a experiência dos verificadores locais. "Nós frequentemente falamos com agentes de verificação de fatos em diferentes regiões para compreender como a desinformação está se espalhando nos países e idiomas deles. Isso não substitui a experiência das nossas próprias equipes, mas acrescenta."

    "...não há muita largura de banda para qualquer coisa fora dos EUA no momento no Facebook."

    A Agence France-Presse tem verificadores de fatos em mais de 30 países, o que a faz ser o maior parceiro do Facebook no programa. Phil Chetwynd, diretor de notícias global da AFP, disse que a sua organização não sentiu pressão por parte do Facebook quanto às suas avaliações, apesar de que qualquer coisa que tenha a ver com os EUA receba um nível diferente de investigação pela empresa.

    “Não há muita largura de banda para qualquer coisa fora dos EUA no momento no Facebook”, disse ele. "Só há uma tremenda concentração de recursos nos EUA."

    Chetwynd disse que um dos valores de participar do programa de verificação de fatos para organizações como a é saber que os reincidentes de infrações encaram consequências. Se o Facebook falha em aplicar tais políticas, ele reduz o valor dos verificadores de fatos. E a falta de transparência ao redor do processo interno de tomada de decisões para remover advertências de desinformação só torna as coisas piores.

    "A maioria dos verificadores de fatos desenvolveu um relacionamento muito construtivo com o Facebook, mas esse problema sobre a transparência sempre foi um ponto de frustração", disse ele. "É uma coisa que falamos para eles várias vezes, particular e publicamente — nós sequer chegamos perto de obter dados precisos o suficiente sobre o impacto das nossas verificações de fatos na plataforma. A nossa impressão é de que tornar esses dados públicos só somaria para a credibilidade do nosso trabalho e do programa de verificação de fatos em geral."

    A isenção de opinião

    Durante os últimos dois meses, o Facebook e os seus parceiros verificação de fatos estiveram discutindo um dos problemas mais controversos da sua relação: a chamada isenção de opinião. A política do Facebook é que artigos de opinião, como declarações de líderes políticos, são isentos de revisão.

    Documentos internos obtidos pelo BuzzFeed News mostram que os funcionários do Facebook citam essa política como justificativa para remover advertências de desinformação da PragerU e das ativistas pró-Trump Diamond e Silk depois que os verificadores de fatos as emitiram. Um gerente do Facebook responsável pela parceria com a PragerU disse que as alegações falsas que a publicação fez sobre a crise climática devem ser enquadradas como "brecha de opinião".

    Na terça-feira, o Facebook aparentemente fechou essa brecha, explicando em uma atualização de política que se “um conteúdo é apresentado como opinião, mas for baseado em informações falsas subjacentes — mesmo que seja um artigo de opinião ou editorial — ainda é qualificável para passar pelo processo de verificação de fatos".

    "Para alguém que confirma a veracidade dos fatos, não é a melhor coisa saber que a sua bandeira está sendo removida da imprensa pelo Facebook."

    Baybars Örsek, diretor da International Fact-Checking Network, disse que a atualização de política ajudará a garantir que a desinformação não seja incorporada em artigos de opinião. Mas ele observou que o Facebook ainda pode decidir se um artigo com conteúdo que passou pelo processo de verificação de fatos é opinião ou não. A empresa pode remover advertências de desinformação sem informar um verificador de fatos sobre a sua decisão. Essa falta de transparência é um problema.

    "No fim do dia, não é a melhor coisa para um verificador de fatos saber que a sua sinalização foi removida da rede pelo Facebook", disse ele.

    Outros verificadores de fatos repetiram a preocupação de Örsek. Um disse que queria que o Facebook tivesse a obrigação de revelar publicamente quando remove uma advertência de desinformação. Uma obrigação dessas tornaria difícil para a empresa dar tratamento preferencial "aos parceiros que pagam muito dinheiro ao Facebook, ou aos parceiros que poderiam falar alguma coisa e serem ouvidos pelos níveis hierárquicos mais altos da empresa".

    Pareceu ser o caso para a PragerU, que conseguiu evitar uma punição severa — e monetizá-la.

    A PragerU levantou pelo menos US$ 400.000 de eventos de levantamento de fundos do Facebook protestando contra a censura no Facebook e no YouTube desde o final de 2018, de acordo com uma revisão do BuzzFeed News. Em 5 de agosto, ela lançou um evento de levantamento de fundos no Facebook em resposta à remoção de uma postagem da PragerU por parte da empresa, sobre um vídeo, agora infame, inicialmente circulado pela Breitbart News sobre um grupo de médicos fazendo alegações falsas e potencialmente perigosas sobre o COVID-19.

    Ela levantou US$ 66.844. ●

    Este post foi traduzido do inglês.

    Utilizamos cookies, próprios e de terceiros, que o reconhecem e identificam como um usuário único, para garantir a melhor experiência de navegação, personalizar conteúdo e anúncios, e melhorar o desempenho do nosso site e serviços. Esses Cookies nos permitem coletar alguns dados pessoais sobre você, como sua ID exclusiva atribuída ao seu dispositivo, endereço de IP, tipo de dispositivo e navegador, conteúdos visualizados ou outras ações realizadas usando nossos serviços, país e idioma selecionados, entre outros. Para saber mais sobre nossa política de cookies, acesse link.

    Caso não concorde com o uso cookies dessa forma, você deverá ajustar as configurações de seu navegador ou deixar de acessar o nosso site e serviços. Ao continuar com a navegação em nosso site, você aceita o uso de cookies.