A Meta, controladora do Facebook e do Instagram, afirmou nesta segunda-feira (10) que as redes sociais removeram mais de 600 mil conteúdos que descumpriram suas políticas contra violência e discurso de ódio entre 16 de agosto e 2 de outubro, dia do primeiro turno das eleições.
Entre os 310 mil conteúdos removidos por violência e incitação, estão postagens que pediam para as pessoas comparecerem aos locais de votação portando armas. O transporte de armas por colecionadores, atiradores desportivos e caçadores (CACs) nas eleições foi proibido pelo Tribunal Superior Eleitoral (TSE).
Já entre as 290 mil postagens removidas por discurso de ódio, há casos de ataques à população do Nordeste. A Meta disse ter identificado esses conteúdos em 2 de outubro, antes mesmo do fim da apuração dos votos, e removido os que violaram suas regras.
A empresa também afirmou ter removido postagens que promoviam datas e horários incorretos da eleição ou que apresentavam números incorretos dos candidatos. Nesses casos, os conteúdos violaram as políticas das plataformas sobre interferência eleitoral.
O Facebook informou ainda que, no fim de semana do primeiro turno, reduziu o alcance de postagens com alegações falsas de que “urnas tinham votos pré-registrados”. O alcance de um conteúdo também pode ser reduzido se ele for sinalizado como falso por agências parceiras de checagens de fatos.
Estas foram as ações realizadas pela companhia antes do primeiro turno:
- Remoção de 310 mil conteúdos por violarem políticas de violência e incitação no Facebook e no Instagram entre 16 de agosto e 2 de outubro;
- Remoção de 290 mil conteúdos por discurso de ódio entre 16 de agosto e 2 de outubro;
- Atendimento a mais de 4,7 milhões de pessoas pelo Tira-Dúvidas do TSE no WhatsApp entre 1º de abril e 2 de outubro; 85,7 milhões de mensagens foram trocadas na ferramenta;
- Ampliação de quatro para seis parceiros no programa de verificação de fatos no Brasil;
- Criação de canal de comunicação direta com o TSE para receber denúncias, além do uso de inteligência artificial;
- Ativação do Centro de Operações para Eleições, em que diversos times trabalham para acelerar tempo de resposta para potenciais ameaças.
Segundo a Meta, o trabalho também incluiu a rejeição de publicidade política no Instagram e no Facebook que não cumpria regras de transparência e mudanças nas redes sociais para facilitar o acesso a informações confiáveis sobre as eleições.
A empresa afirma que é “extremamente desafiador” acabar com o discurso de ódio e outros conteúdos que violam suas regras por conta do tamanho das plataformas.
“Graças ao aprendizado de máquina (‘machine learning’), nossa tecnologia nos ajuda a identificar posts com alta probabilidade de violar nossas políticas para reduzir sua distribuição e, se for o caso, removê-los”, afirmou a Meta.