Crédito: thierry ehrmann/Flickr

Na era das mídias sociais, a morte virou um espetáculo

Profissionais da área de comunicação e de saúde mental criticam a nova política de moderação do Facebook.

por Meaghan Beatley; Traduzido por Ananda Pieratti
|
mai 24 2017, 2:26pm

Crédito: thierry ehrmann/Flickr

A política de moderação do Facebook — descrita em arquivos vazados no último final de semana pelo The Guardian — deixou jornalistas, profissionais da área de saúde mental e a maioria dos organismos vivos perplexos. O motivo dessa revolta é a ambiguidade de muitas das regras do site em relação a questões como pornografia, racismo e terrorismo. No topo da lista de diretrizes controversas está uma regra que permite que usuários transmitam suicídios e outras tentativas de auto-mutilação ao vivo.

De acordo com os documentos, o Facebook "não quer censurar ou punir pessoas em risco de suicídio", acreditando que, ao não censurar esse conteúdo, outros usuários tenham mais tempo de intervir.

No entanto, muitos representantes da mídia temem o que é, segundo eles, uma abordagem equivocada e perigosa.

"Assim como os seguranças da Ponte Golden Gate não são obrigados a ajudar quem quer se matar, o Facebook não tem obrigação de dar uma plataforma para aqueles que queiram transmitir seu suicídio", disse Al Tompkins, jornalista ganhador do Emmy e atualmente professor do Instituto Poynter, ao Motherboard.

"Permitir que a morte se torne um espetáculo não fomenta um diálogo saudável sobre suicídio, muito menos apresenta outras soluções para os problemas dessas pessoas", disse ele.

Aidan White, diretor da Rede de Jornalismo Ético, nos EUA, definiu a política do Facebook como "extremamente oportunista".

"Pessoas em situações de risco precisam de apoio e ajuda, e alimentar esse sofrimento não ajuda ninguém", disse ele ao Motherboard. "O Facebook segue um modelo de negócio que não leva em conta a qualidade da informação ou a natureza do conteúdo sendo publicado".

No começo do mês, Mark Zuckerberg, CEO do Facebook, anunciou que a rede social adicionará 3.000 funcionários a sua equipe de moderação, responsável pela análise de conteúdos impróprios. A decisão foi em grande parte motivada pela repercussão negativa de uma série de vídeos virais que mostravam usuários ferindo a si mesmos e a outros.

Susan McGregor, diretora assistente do Centro de Jornalismo Digital da Universidade de Columbia, disse ao Motherboard que a propagação de conteúdos violentos, incluindo cenas de auto-mutilação, não é novidade na indústria jornalística. Imagens da autoimolação de monges budistas eram veiculadas em massa nos anos 60, por exemplo. McGregor também afirmou que, ao contrário da mídia tradicional, que possui décadas de história, as mídias sociais não possuem o treinamento necessário para lidar com temas tão perigosos.

"De uma hora para outra esses moderadores, que receberam algumas semanas de treinamento e que passam grande parte de seu tempo analisando conteúdos perturbadores, são obrigados a julgar essas postagens, e nada indica que eles tenham o treinamento, a formação ou o apoio necessário para lidar com tudo isso", disse ela.

No fim, McGregor diz que é apenas uma questão de tempo até sabermos qual será o impacto dos vídeos de auto-mutilação nos usuários do Facebook.

"A única forma de lidar com isso de forma responsável é indo com calma e tentando compreender todas as consequências dessas novas ferramentas", disse ela.

"Mas ninguém na área de tecnologia quer ouvir um conselho desses."