Para o Facebook, mamilos são polêmicos. Tanto é que, até pouco tempo atrás, posts que exibissem seios femininos eram sumariamente retirados do ar. Não adiantava muito reclamar, porque os canais para alterar a decisão, justificada ou não, eram escassos. Até agora. Isso porque, nesta semana, o Conselho Supervisor da rede social deu as caras. O órgão, uma espécie de "tribunal" do Facebook a que usuários podem recorrer, divulgou os primeiros seis casos avaliados. E há um brasileiro entre eles, uma publicação excluída justamente por exibir seios e mamilos femininos. O detalhe é que se tratava de uma campanha de conscientização sobre o câncer de mama. Mas a rede social removeu o conteúdo por entender que ele violava a política sobre nudez e atividade sexual — regra não aplicada a fotos de homens com o dorso nu.
Criado em 2019, o "tribunal" do Face só recebeu membros em maio deste ano. Dentre seus 20 integrantes, um deles é o advogado brasileiro Ronaldo Lemos, que falou à coluna. Mas vamos por partes. Antes, é bom saber que:
- A ferramenta de apelação só passou a funcionar em outubro deste ano. Dos mais de 20 mil casos submetidos, meia dúzia foram pinçados. São situações como...
- ... A remoção, sob o pretexto de promover discurso de ódio, de uma imagem que mostrava tuítes do primeiro-ministro da Malásia, Mahathir Mohamad, dizendo que "muçulmanos têm o direito de ficar com raiva e matar milhões de franceses". Ou...
- ... A exclusão de um post feito por um norte-americano que reproduzia falas de Joseph Goebbels, ministro da propaganda nazista de Hitler, para criticar o suposto fascismo da presidência dos EUA sob Trump. Já o caso brasileiro...
- ... Trata-se da retirada de uma publicação que mostrava oito fotos de mamilos de mulheres com sintomas do câncer de mama, todos diante de um fundo rosa. A ideia do autor, que reclamou ao Facebook, era promover uma ação de conscientização durante o Outubro Rosa, mês dedicado a discutir sintomas e tratamentos da doença.
Todos os casos acima demonstram que o Facebook é uma plataforma em que as pessoas se apoiam para fazer mobilizações. Mostram também que o Facebook possui critérios bastante peculiares para moderar conteúdo — ainda que desconsidere o significado de uma ou outra publicação antes de tirá-la do ar. No Brasil, o Facebook não é obrigado por lei a excluir qualquer coisa a não ser que a Justiça mande. Mas, a título de manter a conversa sadia, a rede social possui regras próprias do que pode ou não ser mantido no ar. Isso tem sido instrumento importante para conter excessos de usuários. Os exemplos acima mostram, porém, que o mecanismo também tem silenciado gente disposta apenas a debater dentro de limites aceitáveis. No caso da Malásia, por exemplo, a intenção, disse o usuário, era que as pessoas vissem as "coisas horríveis" que o mandatário dizia. Discutir essas regras, que moldam a vida de tanta gente, mas não são debatidas por representantes populares, é importante.
Os membros do comitê, aliás, buscam justamente situações com alta tensão: Os casos são selecionados com base em critérios que priorizam o impacto sobre os usuários da plataforma e que questionam políticas adotadas pelo Facebook Ronaldo Lemos, advogado brasileiro A independência do comitê faz com que o impacto da deliberação seja imprevisível — e o Facebook se obrigou a aceitar. Isso indica que podem vir por aí grandes mudanças. Ok, elas seriam maiores se o Instagram já não tivesse em outubro liberado fotos de seios femininos em três condições. "As decisões do Conselho têm um impacto de orientar o Facebook com relação a políticas futuras. Nesse sentido, o impacto pode ir além dessa decisão e dessa política específica", diz Lemos. O problema é que, dependendo da decisão, teremos de nos perguntar quem vigia os vigias.
|
Nenhum comentário:
Postar um comentário