Vídeo na "Floresta do Suicídio" é mais um exemplo dos problemas que o YouTube precisa resolver

    O vídeo, em que o YouTuber Logan Paul mostra uma pessoa que havia se suicidado, exemplifica um grande problema de moderação de conteúdo na plataforma.

    O YouTube está enfrentando uma crise — de novo.

    Logo após vir à tona a existência de vídeos com suspeita de exploração infantil na plataforma, a empresa vem enfrentando uma nova onda de críticas depois que o conhecido YouTuber Logan Paul publicou um vídeo de um cadáver enquanto filmava em Aokigahara, a chamada "Floresta do Suicídio" do Japão.

    A controvérsia de Logan Paul é apenas a mais recente dentro de uma empresa que enfrenta cada vez mais críticas sobre que tipo de conteúdo é apropriado para sua plataforma — e como ela aplica suas diretrizes da comunidade de maneira desigual.

    logan paul exploiting a suicide victim in Japan to the tune of 6M+ views while youtube demonetizes students protest… https://t.co/ylcI8kY58k

    "Logan Paul explorando uma vítima do suicídio no Japão e conseguindo mais de 6M views enquanto o youtube desmonetiza estudantes protestando no Irã é o exemplo perfeito do lixo sociopata que o youtube virou. essa indústria não tem alma."

    Suicide isn’t a joke. Suicide isn’t clickbait. Suicide is a serious matter. Logan Paul has taken it too far. He jus… https://t.co/l5i9pJ67Lo

    "Suicídio não é uma piada. Suicídio não é para caçar cliques. Suicídio é assunto sério. Logan Paul foi longe demais. Ele só liga para a fama, views e dinheiro. Estou muito desapontado por o YouTube permitir isso. Ele está dando um exemplo para milhões de jovens crianças."

    O YouTube, depois de um década sendo o pioneiro em vídeos na internet, está em um momento decisivo, enfrentando dificuldades para controlar a vasto fluxo de conteúdo que passa por sua plataforma, equilibrando-se entre a necessidade de moderação e a aversão à censura.

    Somente nos últimos 12 meses, o site se envolveu em controvérsias como a retórica antissemita encontrada em vídeos de seu maior astro, PewDiePie, um êxodo de anunciantes por conta de vídeos com discurso de ódio ou conteúdo extremista, e o conteúdo perturbador e com suspeita de exploração infantil promovido por seu algoritmo.

    E, a cada novo erro, o site conseguiu irritar os criadores dos quais ele depende para conteúdo, espantou anunciantes e confundiu os usuários sobre como, exatamente, toma decisões sobre quais vídeos podem permanecer na plataforma, quais devem ser retirados e o que pode ser monetizado. O vídeo de Paul é apenas a mais recente manifestação dessa dificuldade.

    Nesse último caso, o vídeo sensacionalista de um cadáver, uma aparente morte por suicídio, ficou no ar por mais de 24 horas, até ser removido pelo próprio Paul depois da reação negativa do público. (O representante de relações públicas de Paul não respondeu a pedidos de comentários para esta matéria.)

    Nesse meio tempo, o vídeo foi visto mais de 6,3 milhões de vezes, de acordo com a New York Magazine. O vídeo se encaixa dentro de um padrão maior de conteúdo controverso e mostra como o YouTube criou um sistema de incentivo para que os criadores de sua plataforma ultrapassem os limites.

    "Até que ponto o YouTube está, de maneira explícita e implícita, encorajando as pessoas a abusarem do fator escândalo?"

    "Sejamos sinceros, esse alarde com Logan Paul vai morrer em algum momento", diz Sarah Roberts, professora assistente da UCLA (Universidade da Califórnia em Los Angeles, EUA) que estuda moderação de conteúdo há sete anos. "Mas há uma discussão maior que precisamos ter: até que ponto o YouTube está, de maneira explícita e implícita, encorajando as pessoas a abusarem do fator escândalo [na produção de conteúdo]? Eles precisam disso para manter as pessoas na plataforma?"

    Na terça-feira, o YouTube reconheceu que o vídeo, de fato, violou suas políticas por ser explícito e ter sido publicado de "maneira chocante, sensacionalista e desrespeitosa". "Se um vídeo for explícito, ele só pode permanecer no site se tiver o suporte de informações educacionais ou documentais apropriadas e, em alguns casos, com restrição de idade", escreveu um porta-voz da empresa ao BuzzFeed News por e-mail.

    Mas o incidente de Logan Paul destaca a inconsistência das regras de moderação de conteúdo do YouTube. O YouTube não respondeu quando perguntamos se o vídeo tinha sido inicialmente revisado e aprovado para permanecer na plataforma. De acordo com um membro do Programa Trusted Flagger do YouTube, no entanto, quando a empresa revisou manualmente o vídeo de Paul, ela decidiu que o vídeo poderia permanecer on-line e não precisaria de restrição de idade.

    Logan Paul's video was reported and YouTube manually reviewed it; they decided to leave it up without even an age r… https://t.co/ciYl1AzPAx

    "O vídeo do Logan Paul foi reportado e manualmente revisto [pelo Youtube]; eles decidiram deixar ele lá sem nem ao menos colocar uma restrição etária... pessoas que subiram o vídeo de novo na plataforma receberam strikes por conteúdo gráfico. Ridículo."

    O YouTube também disse que, quando remove um vídeo por ele ter violado as diretrizes da comunidade, aplica um "strike" ao canal. Se um canal acumular três "strikes" em um período de três meses, o YouTube desativa o canal, seguindo as diretrizes da comunidade da empresa. Ainda que Paul tenha excluído o próprio vídeo, o YouTube informou que aplicou um "strike" à sua conta. É importante destacar que Paul desmonetizou o vídeo quando o publicou pela primeira vez — o que significa que nem ele nem o YouTube receberam qualquer receita de publicidade do vídeo.

    O vídeo de Paul não é algo que uma moderação de inteligência artificial poderia ter pego por conta própria, segundo dois especialistas com foco em moderação de conteúdo ouvidos pelo BuzzFeed News. "O que foi obsceno foi mostrar e desrespeitar o corpo de um vítima de suicídio", disse Tarleton Gillespie, que estuda na Microsoft Research o impacto das mídias sociais no discurso público. "Esse é o tipo de sutileza contextual e ética que ferramentas automatizadas provavelmente nunca conseguirão ter."

    Além disso, determinar que Logan Paul passou do limite é uma decisão que envolve fundamentalmente um exercício de julgamento moral, de acordo com James Grimmelmann, professor de direito que estuda redes sociais na Universidade Cornell.

    "Você precisa observar o que é considerado um comportamento decente na comunidade de usuários que o YouTube tem ou quer ter", disse Grimmelmann. "Você não pode simplesmente girar uma manivela e fazer com que o algoritmo decida para você o que é moralidade." Nesse sentido, o YouTube, no fim, fez um julgamento de valor sobre o vídeo de Logan Paul, com base nas reações de sua própria comunidade, dizendo publicamente que havia ocorrido uma violação de suas políticas.

    "Você não pode  fazer com que o algoritmo decida para você o que é moralidade."

    Obviamente, essa não é a forma como a empresa quer que o público enxergue seu papel. O YouTube, em geral, permaneceu em silêncio sobre o caso, enquanto Logan Paul publicou dois pedidos de desculpas.

    “As empresas fizeram um ótimo trabalho se posicionando de maneira que, quando algo assim acontece, elas podem lavar as mãos e dizer: ‘Nós só somos o canal de distribuição,’” diz Roberts. “Mas eu iria além e perguntaria — qual é o relacionamento do YouTube com Logan Paul?”

    Paul é um dos grandes nomes do YouTube. Ele é um dos protagonistas de The Thinning e Foursome, duas séries do YouTube Red Originals — programas exclusivos e de alta qualidade que o YouTube distribui em seu serviço de assinatura pago, o YouTube Red.

    Paul tem um canal no YouTube desde 2015, e, nesse meio tempo, ele acumulou 15 milhões de seguidores e quase 3 bilhões de visualizações. O YouTube conhece o estilo irreverente de vídeos de Paul, e Paul sabe o que funciona bem na plataforma. "Nesse caso, esse cara é um dos principais produtores para o YouTube", disse Roberts. "Fica mais difícil argumentar que o vídeo passou despercebido dentro da empresa."

    Para completar, o YouTube provavelmente não tem como saber exatamente que conteúdo está em sua plataforma o tempo todo — especialmente com quase 600.000 horas de vídeos novos entrando no YouTube diariamente.

    "O problema com as plataformas de distribuição digital atuais é o 'microdirecionamento' do conteúdo aos usuários", disse Bart Selman, professor de inteligência artificial da Universidade Cornell. "Na verdade, um algoritmo de classificação bem ajustado vai garantir que um conteúdo extremo seja exibido somente a pessoas que não se sentirão ofendidas — ou talvez até apreciem — e não seja exibido aos outros."

    A bolha do microdirecionamento é estourada quando vídeos perturbadores viralizam e atraem atenção do público e escrutínio da mídia. Mas essa é a exceção, não a regra.

    Ainda é uma caixa-preta o exato funcionamento e dinâmica entre moderadores humanos, algoritmos automatizados, aplicação de políticas e geração de receita do YouTube — e isso é um problema. "Essas informações estão sob sete chaves", diz Roberts, da UCLA. "Mas o resultado positivo desse tipo de incidente é que o público começa a fazer perguntas ao YouTube."

    "Todos nós somos testadores beta e um grupo de foco, incluindo em como a moderação de conteúdo é aplicada", continua. É provável que, agora, o YouTube lance ainda mais recursos para a moderação de conteúdo e comunique sua estratégia de forma mais clara — algo que já começou a fazer — em um esforço para evitar qualquer regulamentação que possa atingir a plataforma.

    ATUALIZAÇÃO

    A matéria foi atualizada para clarificar que o YouTube aplicou um "strike" ao canal de Logan Paul por violação das regras da plataforma, que proíbe a publicação de conteúdos violentos ou grotescos postados de forma chocante, sensacionalista ou desrespeitosa.

    Utilizamos cookies, próprios e de terceiros, que o reconhecem e identificam como um usuário único, para garantir a melhor experiência de navegação, personalizar conteúdo e anúncios, e melhorar o desempenho do nosso site e serviços. Esses Cookies nos permitem coletar alguns dados pessoais sobre você, como sua ID exclusiva atribuída ao seu dispositivo, endereço de IP, tipo de dispositivo e navegador, conteúdos visualizados ou outras ações realizadas usando nossos serviços, país e idioma selecionados, entre outros. Para saber mais sobre nossa política de cookies, acesse link.

    Caso não concorde com o uso cookies dessa forma, você deverá ajustar as configurações de seu navegador ou deixar de acessar o nosso site e serviços. Ao continuar com a navegação em nosso site, você aceita o uso de cookies.