Facebook removeu mais de 583 milhões de contas falsas em três meses

Da Redação
15/05/2018 - 15h03
Rede social também excluiu 21 milhões de posts de pornografia; Companhia divulgou nesta terça seu relatório de transparência

O Facebook removeu 583 milhões de contas falsas no primeiro trimestre deste ano, informou a companhia nesta terça-feira (15) como parte do seu Relatório de Transparência dos Padrões da Comunidade. Contas falsas são as maiores responsáveis pela distribuição de spams, diz o Facebook. Como consequência, a rede social conseguiu derrubar 837 milhões de spams no mesmo período, sendo que cerca de 100% deles foram encontrados e sinalizados antes mesmo que alguém os denunciasse. Ao mesmo tempo, a plataforma excluiu 21 milhões de publicações de nudez ou pornografia adulta - a maioria também encontrada utilizando inteligência artificial. 

A companhia anunciou há três semanas, pela primeira vez em sua história, as diretrizes internas que utiliza para analisar se um post infringe suas políticas. Os esforços de revisão de conteúdo abrangem seis áreas: violência gráfica; nudez e atividade sexual de adultos; propaganda terrorista; discurso de ódio; spam; e contas falsas. 

A força tarefa ainda removeu ou notificou cerca de 3,5 milhões de conteúdos violentos e 2,5 milhões de conteúdos com discurso de ódio no primeiro trimestre deste ano. Entretanto, a empresa de Mark Zuckerberg reconhece que há muito a ser feito para conseguir barrar mensagens de ódio e aquelas que incitam a violência. Isso porque tais conteúdos reservam particularidades e subjetividades, o que exige dos talentos da interpretação humana.  

"Para assuntos como violência gráfica e discurso de ódio, nossa tecnologia ainda não funciona tão bem, então é necessária a verificação do conteúdo por nossas equipes de revisão", explica Guy Rosen, vice-presidente de Gerenciamento de Produto, do Facebook. "Tecnologias como a inteligência artificial, que embora seja promissora, ainda está longe de ser efetiva para a maioria dos conteúdos de baixa qualidade, ja que uma análise do contexto também é muito importante", completa. 

Como exemplo de "ponto cego" da tecnologia, Rosen explica que a AI não consegue ainda determinar se alguém está proclamando ódio ou se está descrevendo uma situação ocorrida consigo mesma para gerar conscientização sobre o assunto.

Segundo o executivo, o trabalho de revisão do Facebook segue em andamento e com mais investimentos em pessoas e em tecnologia.

"É um trabalho em andamento e que provavelmente mudaremos nossa metodologia à medida que aprendermos mais sobre o que é importante e o que funciona", conclui Rosen.