O Facebook ignorou regras criadas por ele mesmo, usou um sistema automatizado falho e apagou do Instagram posts de um usuário brasileiro que só exibiam seios femininos para conscientizar sobre o câncer de mama. Essa conclusão faz parte da primeira decisão do Conselho Supervisor, uma espécie de "tribunal" a que membros da rede social podem recorrer. Além de apontar o erro e dar um tremendo sermão à empresa por ela ter retalhado a liberdade de expressão do criador da postagem, o "tribunal" do Face passou uma lição de casa que pode mudar a vida de quem usa a rede social.
Um dos seis primeiros casos analisados pelo Conselho, este era o único brasileiro da lista. Ano passado, o Facebook excluiu do Instagram oito fotos de mamilos de mulheres com sintomas do câncer de mama, todos diante de um fundo rosa. A ideia do autor, que reclamou com razão, era promover uma ação de conscientização durante o Outubro Rosa, mês dedicado a discutir sintomas e tratamentos da doença. Antes de decidir, o "tribunal" do Face descobriu que: - O post foi removido após ser detectado por um sistema automatizado. Longe de ser acurado...
- ... O robozinho falhou em detectar que as imagens eram acompanhadas das palavras "Câncer de Mama". Com isso, ele contrariou as regras do Facebook, já que...
- ... Apesar de vetar posts de nudez com viés pornográfico, a empresa permite expressamente a publicação daqueles que aumentem a "conscientização sobre o câncer de mama". Até que...
- ... O Facebook tentou enterrar o caso, dizendo já ter trazido o post de volta à vida e que o caso não valeria ser analisado pelo Conselho. Não teve jeito, porque...
- ... Diante da situação, o "tribunal" do Face não só deliberou contra a empresa como deu duas broncas, uma sobre censura:
A ação de implementação que depende apenas da moderação automatizada, sem análise humana, interfere na liberdade de expressão - ... e outra sobre machismo:
Como as regras do Facebook tratam mamilos femininos e masculinos de maneira diferente, usar automação imprecisa para aplicar essas regras afeta a liberdade de expressão das mulheres de forma desproporcional
Criado em novembro de 2018, o Conselho surgiu na esteira das críticas à atuação do Facebook de deliberar unilateralmente sobre a liberdade de expressão de parte da população mundial. A rede possui mais de 2 bilhões de membros. De caráter autônomo, o órgão tem o poder de revisar decisões do site e recomendar alterações, seja nas regras, na abordagem a algumas ações e até no funcionamento de alguns sistemas. Ainda assim, ficava a dúvida. Ainda que independente, será que o colegiado vai peitar de fato a empresa? A forma como o "tribunal" do Face lidou com a situação mostra que sim. E isso fica mais evidente ao olhar as sugestões feitas: - Melhorar o sistema de detecção automatizada, principalmente quando texto e imagem estão combinados;
- Avisar usuários que seus posts foram excluídos por terem sido detectados por um robô;
- Permitir que os usuários possam recorrer caso discordem de decisões de robôs;
- Informar exatamente qual regra foi descomprima para uma publicação ser tirada do ar;
- Auditar continuamente remoções ou restrições feitas automaticamente;
- Incluir em seu relatório de transparência dados sobre essas ações;
- Revisar o ponto em suas políticas que trata da proibição sobre a nudez adulta para esclarecer que o veto não é absoluto.
A quantidade de conteúdo gerado no Facebook torna a moderação tarefa impossível se não contar com robôs. Dizer com todas as letras que uma das maiores empresas de tecnologia do mundo aposta em um sisteminha incapaz de diferenciar pornografia de uma campanha de conscientização é prova que o Conselho está no caminho certo. Quando sugere alterações com potencial de impactar o modelo de negócio da empresa, o "tribunal" do Face indica que pode ser modelo para as outras Big Tech que tentam provar não serem inconsistentes com a democracia.
|
Nenhum comentário:
Postar um comentário