A cientista de dados Frances Haugen, ex-funcionária do Facebook que liberou à imprensa documentos da empresa após deixar seu cargo em maio deste ano, critica a falta de transparência dos investimentos feitos pela companhia para combater desinformação e discurso de ódio na América Latina e em países como Mianmar e Índia.
O Facebook tem sistemas de inteligência artificial e equipes humanas que trabalham para detectar e remover posts contrários às diretrizes da rede social. Documentos revelados por Haugen até agora mostram a dificuldade da plataforma em priorizar recursos para países de fora da América do Norte.
A Índia, um dos principais mercados do Meta (novo nome do Facebook Inc.), não recebe recursos suficientes para que as 22 línguas oficiais do país sejam reconhecidas, por exemplo. Para Haugen, o Brasil pode ser vítima do mesmo problema.
"Uma das coisas que mais dissemina conteúdo violento é o fato de pessoas o recompartilharem em grandes grupos. Ele viraliza dessa forma. Desconfio que o português do Brasil não seja bem amparado pelos sistemas de segurança", afirmou à Folha por email.
Ela refere-se aos sistemas de inteligência artificial que detectam conteúdos nocivos e pontencialmente virais na plataforma.
Em nota, o Meta afirma que possui especialistas brasileiros em diferentes localidades e baseados no país e que tem investido de modo significativo em pessoas e tecnologia para aplicar suas políticas em dezenas de idiomas, incluindo o português.
"Devemos investir mais de US$ 5 bilhões globalmente em segurança e integridade apenas em 2021, e temos 40 mil pessoas dedicadas a essas áreas", acrescenta.
Um relatório interno do Facebook, noticiado no domingo (6), recomenda que seja examinado "seriamente por que a violência explícita continua a ter um alcance maior no Facebook e no WhatsApp no Brasil".
A informação faz parte dos chamados Facebook Papers, relatórios internos enviados à Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) e fornecidos ao Congresso americano de forma editada, com ocultação de nomes, pelos advogados de Frances Haugen. A Folha faz parte do consórcio de veículos de mídia que teve acesso a esses papéis.
O investimento escasso do Facebook em outros países, tema já abordado por ativistas e confirmados nos documentos vazados por Haugen, é tido com uma entre as causas para a alta disseminação de conteúdo violento, de ódio ou desinformativo em países menos desenvolvidos.
A empresa não tinha, até 2020, algoritmos capazes de detectar desinformação em birmanês, língua oficial do país, segundo um documento. Outro arquivo, noticiado pelo New York Times, mostra que 87% do orçamento global da companhia para o tempo gasto em classificação de desinformação é destinado aos Estados Unidos.
Outros documentos acessados pela Folha mostram que apenas 0,2% da remoção de conteúdos de discurso de ódio no Afeganistão foi realizada de modo automático e que a revisão de conteúdo de ódio, de modo geral, custa ao Facebook cerca de US$ 2 milhões por semana.
Ao Parlamento britânico, Haugen criticou discursos do Facebook, como "apoiamos 50 idiomas", quando grande parte dessas línguas, segundo ela, tem apenas uma fração dos sistemas de segurança que o inglês americano tem.
Em um relatório sobre a competitividade do Facebook noticiado pela Folha no domingo, a empresa afirma que pode "negligenciar países médios, especialmente na Europa e América Latina".
O Brasil aparece em uma lista dos países considerados prioritários para ações de combate ao uso nocivo da plataforma em 2021. Está no mesmo grupo que Nicarágua, Arábia Saudita, México, Turquia, Argentina, Irã, Indonésia, Alemanha, França e Honduras.
Autoridades brasileiras expressam a mesma preocupação sobre o investimento em ferramentas de inteligência artificial dedicadas ao Brasil especificamente.
O Ministério Público Federal instaurou inquérito na terça-feira (9) e solicitou que o Facebook informe qual o percentual das remoções de conteúdo da plataforma decorre de análise humana, se a rede opera com inteligência artificial adaptada ao idioma português nas ações de detecção e remoção de conteúdo e quanto investiu nos últimos três anos para "mitigar práticas organizadas de produção e de circulação de conteúdos que veiculam desinformação e violência digital no Brasil".
O inquérito deve investigar a postura das principais redes sociais e aplicativos de mensagem no Brasil no enfrentamento às notícias falsas e à violência digital.
Em relação ao número de usuários diários ativos do Facebook, o Brasil está em terceiro lugar no mundo, com 97 milhões, só atrás da Índia, com 186 milhões, e dos EUA, com 167 milhões, de acordo com outro documento interno da empresa, este de 2019.
Em nota, o Meta diz que o Brasil é um país prioritário para o grupo. Além do investimento previsto para 2021, destaca que removeu, desde 2017, mais de 150 redes que tentaram manipular o debate público, originadas em mais de 50 países, entre eles o Brasil.
"Nossas ações ao longo do tempo mostram que combatemos abusos nas nossas plataformas no Brasil", diz.
Nesta semana, a empresa anunciou que removeu do Facebook e do Instagram 1 milhão de publicações com desinformação sobre a Covid-19 desde o início da pandemia. Assim como outras plataformas, o Facebook adotou diretrizes mais robustas de remoção de conteúdo para o período de urgência sanitária.(Paula Soprana/Folhapress)
Deixe sua opinião