Na última segunda-feira (21), uma ex-moderadora de conteúdo processou o YouTube,
acusando a plataforma de compartilhamento de vídeos, de não proteger
adequadamente seus funcionários encarregados de capturar e remover
conteúdos violentos postados no site.
Segundo a NBC News, a reclamante afirmou que, para cumprir suas funções, teve que assistir a vídeos de decapitações, tiroteios, abuso infantil e outros conteúdos perturbadores. Como consequência disso, ela passou a ter pesadelos, ataques de pânico e fobia de multidões, sem contar com nenhum tipo de suporte psicológico da empresa.
A ex-moderadora, que não teve o nome revelado, era formada por uma agência terceirizada, a Collabera, como acontece com a maioria desses profissionais. A funcionária alegou que as equipes de moderação eram insuficientes, o que obrigava os moderadores a ter que extrapolar as quatro horas recomendadas por dia para escanear vídeos violentos.
As metas de produtividade do YouTube estabelecem que cada moderador analise entre 100 e 300 peças de conteúdo de vídeo por dia, com uma “margem de erro” de 2 a 5%, segundo o processo. Além disso, a empresa também determina a forma de exibição dos vídeos, seja em tela cheia ou miniaturas, desfocados e a rapidez com a qual as peças são assistidas em sequência.
O processo surge num momento de discussões acaloradas sobre o impacto desse tipo de trabalho sobre a saúde mental das pessoas. Durante a pandemia, o YouTube utilizou computadores para localizar e excluir conteúdos impróprios, mas teve que retornar a função para humanos, após muitos casos de censuras indevidas.
O escritório de advocacia Joseph Saveri, de São Francisco, que representa um grupo de moderadores do Facebook, entrou com uma ação semelhante, que resultou num acordo de US$ 52 milhões em maio.
Segundo a NBC News, a reclamante afirmou que, para cumprir suas funções, teve que assistir a vídeos de decapitações, tiroteios, abuso infantil e outros conteúdos perturbadores. Como consequência disso, ela passou a ter pesadelos, ataques de pânico e fobia de multidões, sem contar com nenhum tipo de suporte psicológico da empresa.
A ex-moderadora, que não teve o nome revelado, era formada por uma agência terceirizada, a Collabera, como acontece com a maioria desses profissionais. A funcionária alegou que as equipes de moderação eram insuficientes, o que obrigava os moderadores a ter que extrapolar as quatro horas recomendadas por dia para escanear vídeos violentos.
As metas de produtividade do YouTube estabelecem que cada moderador analise entre 100 e 300 peças de conteúdo de vídeo por dia, com uma “margem de erro” de 2 a 5%, segundo o processo. Além disso, a empresa também determina a forma de exibição dos vídeos, seja em tela cheia ou miniaturas, desfocados e a rapidez com a qual as peças são assistidas em sequência.
O processo surge num momento de discussões acaloradas sobre o impacto desse tipo de trabalho sobre a saúde mental das pessoas. Durante a pandemia, o YouTube utilizou computadores para localizar e excluir conteúdos impróprios, mas teve que retornar a função para humanos, após muitos casos de censuras indevidas.
O escritório de advocacia Joseph Saveri, de São Francisco, que representa um grupo de moderadores do Facebook, entrou com uma ação semelhante, que resultou num acordo de US$ 52 milhões em maio.