Diante das intensas críticas sobre a política de moderação de conteúdo da empresa, o fundador de Facebook, Mark Zuckerberg, anunciou em novembro de 2018 a criação de um Conselho Supervisor (Oversight Board) independente para auxiliar o gerenciamento e a moderação de conteúdo nas suas plataformas digitais, que inclui também Instragam. Em maio de 2020 foram anunciados os primeiros vinte membros do conselho, além de seus quatro copresidentes. Até o final do ano o conselho deve iniciar a análise dos primeiros casos. O conselho pode ser considerado a mais interessante iniciativa de autorregulação sobre censura na Internet e direitos de privacidade nas redes sociais desde a criação da Global Network Initiative em 2008. Por outro lado, está sujeito as muitas críticas típicas dos modelos de autorregulação. A iniciativa de Facebook pode ajudar a refinar a política interna da empresa sobre a moderação de conteúdos e tornar sua aplicação mais consistente, mas também deveria reforçar a responsabilidade corporativa em proteger os direitos humanos -especialmente o livre exercício da liberdade de expressão- quando desenvolvem suas atividades.
O objetivo desta coluna é analisar os limites e possibilidades do órgão instituído por Facebook à luz dos Princípios Orientadores sobre Empresas e Direitos Humanos das Nações Unidas, aprovados no ano 2011, que impulsionaram definitivamente o tema de empresas e direitos humanos na agenda global internacional. Estruturado em três pilares (proteger, respeitar e remediar), os Princípios Orientadores favorecem a autorregulação das empresas no campo dos direitos humanos em razão de seu próprio desenho policêntrico, na expressão utilizada por César Garavito. Dentre as iniciativas corporativas permitidas pelos Princípios Orientadores está juntamente a criação de mecanismos não estatais de reclamação (princípio 29) para se ocupar de violações a direitos humanos relacionados com a atividade da empresa.
Por um lado, a competência do Oversight Board, ao permitir a reanálise de casos individuais de eliminação de conteúdo encaminhadas pelos próprios usuários, cria um importante mecanismo de reclamação não estatal que pode desempenhar três importantes funções em relação com a responsabilidade da empresa de respeitar os direitos humanos: (i) permitirá que Facebook determine, a partir das tendências e pautas das reclamações, as consequências negativas que a política da empresa está tendo sobre o direito à liberdade expressão e seus problemas sistêmicos, (ii) facilitará um processo de devida diligencia e a correção das inconsistências de sua política de moderação de conteúdos e (iii) permitirá que Facebook se ocupe e repare os danos detectados de maneira mais rápida e direta, a fim de evitar maiores prejuízos aos seus usuários.
Por outro lado, o conselho de Facebook tem importantes limitações para enfrentar os desafios que o ambiente online atualmente impõe, como a disseminação da desinformação, o discurso de ódio, a incitação à violência, as violações da privacidade, a captura ilegal de dados e a manipulação política.
Em primeiro lugar, é importante considerar que muitos dos desafios citados acima são ampliados na internet em razão do próprio modelo de negócio das plataformas. Empresas como Facebook e Instragam funcionam com um modelo único de negócios que se baseia em atrair um grande número de usuários a “custo zero” e construir sobre eles um conjunto valioso da dados que permitem as empresas oferecer serviços, conteúdos e oportunidades publicitarias altamente personalizados. As mesmas ferramentas que geram dinheiro publicitário para as empresas (conteúdos virais, uso de serviços automatizados (como bots), orientação individual de mensagens, colocação de anúncios juntos vídeos), por exemplo, também fazem com que a captura de dados e a disseminação da desinformação ocorra com tanta facilidade nas redes sociais. Por certo a atuação do conselho está distante de enfrentar estas questões. Igualmente, não se deve esperar que o Oversight Board se transforme em juiz sobre a veracidade dos conteúdos que circulam na internet. No diz respeito ao combate a desinformação, deve sim orientar políticas internas mais eficazes, que estejam menos focadas no conteúdo das mensagens, e mais focadas em estratégias comprovadamente eficientes, como a identificação de comportamento inautêntico nas redes sociais. Além disso, a supervisão das práticas de proteção de dados é tema primordial para frear a prática de desinformação.
O segundo limitador está relacionado as normas e princípios que deverão orientar a atuação e decisões do Board. De acordo com seu documento constitutivo, o conselho deverá revisar e decidir os casos de acordo com as políticas de conteúdo e valores do Facebook (Section3). A vagueza, a ambiguidade e a desconformidade com os estândares internacionais dos direitos humanos são justamente os principais problemas das normas de moderação de conteúdo da empresa, que criaram um ambiente imprevisível aos usuários e facilitaram uma intensificam da vigilância estatal. Além disso, as normas internas podem carecer de legitimidade na medida em que são produto de um esforço unilateral da empresa. Os princípios norteadores das decisões do conselho supervisor não deveriam ser os padrões e valores refletidos nas normas internas de Facebook, mas os estândares internacionais de proteção dos direitos humanos. O Princípio 31 dos Princípios Orientadores sobre empresas e direitos humanos estabelece expressamente, entre outros requisitos, que os mecanismos de reclamação privados devem ser compatíveis com os direitos, e assegurar que os resultados e reparações sejam conforme aos direitos humanos reconhecidos internacionalmente. Embora o perfil dos selecionados a compor o conselho do Facebook seja de pessoas reconhecidas pelo seu trabalho na proteção dos direitos humanos, o compromisso com a proteção dos direitos humanos reconhecidos internacionalmente deveria estar expresso nas políticas da empresa e na composição do Board.
O terceiro ponto a se observar é o escopo bastante limitado de atuação do conselho. Ao analisar apenas casos de remoção de conteúdos individuais, a competência do Board exclui importantes focos importantes de problemas nas redes sociais, como os anúncios políticos e as atividades dos grupos, amplamente relacionados a propagação de discursos de ódio e desinformação. Da mesma maneira, a remoção do conteúdo não é a única política de moderação de conteúdo que pode afetar a liberdade de expressão. Como já foi apontado pelo Relator Especial das Nações Unidas, David Kaye, a exclusão de conteúdos classificados como inferiores por algoritmos (down-ranking), a restrição de visualização de conteúdos localizados em certas áreas geográficas (Geo-blocking) são exemplos de políticas que podem afetar o livre exercício da liberdade de expressão e deveriam figurar na competência do conselho. Isto porque, os Princípios Orientadores expressam que os mecanismos de reclamação privados devem atender e identificar qualquer preocupação legítima dos possíveis afetados (Princípio 31). Além disso, a seleção dos casos pelo Board deve estar de acordo com o estabelecido nos Princípios Orientadores, e deveria priorizar os casos mais graves que podem resultar irreversíveis se não recebem uma resposta imediata (Principio 24) e não apenas casos de maior potencial para orientar futuras decisões e políticas da empresa, como definido em sua carta constitutiva (Article 2). Por fim, a seleção dos casos deve ter especial atenção aos grupos expostos a um maior risco de vulnerabilidade ou marginalização nas redes sociais (criancas, comunidades LGBTI, mulheres, populacao indigena, comunidades etnicas e raciais, migrante, refugiados, defensores de direitos humanos) (Princípio 18).
O quarto e último desafio, diz respeito a pretensão global do órgão. De modo geral mecanismos de reclamação de nível corporativo são desenhados para atender áreas de atuação bastante limitadas, com uma base geográfica definida e problemas comuns. O Oversight Board, ao contrário, lidará com problemas de bilhões de usuários espalhados em todo o mundo, que se expressam em centenas de idiomas distintos e enfrentará temas em que a análise do contexto geográfico, cultural e linguístico são fundamentais para determinar a proporcionalidade, legitimidade e necessidade das medidas tomadas pela empresa no momento de moderar os conteúdos que circulam pelas redes sociais. Ainda que a composição do conselho esteja pensada para atender as diversas regiões, as particularidades regionais, especialmente em temas relacionados a liberdade de expressão -inclusive com distinções entre os próprios estândares regionais de proteção a liberdade de expressão- é um problema que dificilmente o Board poderá contornar. Por esta razão, existem inúmeras sugestões para a criação de organismos não só independentes de qualquer empresa, mas com bases totalmente regionais. Além disso, o princípio 31 dos Princípios Orientadores da ONU, ao apontar os critérios para garantir a eficácia de um mecanismo de reclamação, ressalta a necessidade de participação e diálogo com os grupos interessados. Embora exista na constituição do conselho a possibilidade de consultas com partes externas, estas serão a critério e deliberação do conselho. A participação de distintos atores (usuários, acadêmicos e expertos no tema) próximos (culturalmente e geograficamente) do caso será decisiva para a legitimidade das decisões do conselho.
Legitimidade e transparência devem ser as palavras chaves na atuação do conselho. Assim como os próprios Princípios das Nações Unidas sobre empresas e direitos humanos, o conselho está longe de ser a solução para os difíceis problemas que envolvem as empresas do setor. Fica a expectativa para que este seja apenas o “começo do fim” de uma atuação mais responsável das empresas nas redes sociais.
[citationic]
1 thoughts on “Oversight Board de Facebook – o começo do fim para os desafios da moderação de conteúdos nas redes sociais?”