O Facebook anunciou nesta sexta-feira (15) que já consegue detectar vídeos e fotos de "revenge porn" postadas na plataforma e no Instagram mesmo antes de alguém fazer uma denúncia — embora não explique como seus sistemas de machine learning e inteligência artificial sabem se o upload foi consensual.
"Encontrar essas imagens vai além da detecção de nudez em nossas plataformas", escreveu Antigone Davis, chefe global de segurança do Facebook.
"Usando o aprendizado de máquina e a inteligência artificial, podemos agora detectar proativamente vídeos e fotos com alguma nudez que são compartilhados sem permissão no Facebook e no Instagram."
O Facebook disse que, depois que a pornografia de vingança é detectada automaticamente, um moderador do Facebook irá analisar o material e removê-lo se ele violar os Padrões da Comunidade da plataforma. O Facebook também poderá desativar a conta que compartilhou o conteúdo problemático.
Essa é a primeira vez que o Facebook tenta enfrentar a disseminação do pornô de vingança em suas plataformas. A companhia já havia anunciado a criação de uma ferramenta contra a prática em 2017.
Este post foi traduzido do inglês.