Anulado
Isolamento de Öcalan
O Comitê de Supervisão revogou a decisão original do Facebook de remover uma publicação no Instagram que incentiva as pessoas a discutir o confinamento em solitária de Abdullah Öcalan, membro fundador do Partido dos Trabalhadores do Curdistão (PKK).
Para ler a decisão completa em curmânji, clique aqui.
Ji bo hûn ev biryar bi Kurdiya Bakur bixwînin, li vir bitikînin.
Resumo do caso
O Comitê de Supervisão revogou a decisão original do Facebook de remover uma publicação no Instagram que incentiva as pessoas a discutir o confinamento em solitária de Abdullah Öcalan, membro fundador do Partido dos Trabalhadores do Curdistão (PKK). Depois que o usuário fez a apelação e o Comitê selecionou o caso para análise, o Facebook concluiu que o conteúdo foi removido por engano e o restaurou. A preocupação do Comitê é que o Facebook não tenha considerado uma exceção da política interna por três anos e que isso tenha levado à remoção equivocada de várias outras publicações.
Sobre o caso
Este caso está relacionado a Abdullah Öcalan, membro fundador do PKK. Esse grupo tem usado violência na tentativa de alcançar seu objetivo de estabelecer um estado curdo independente. O PKK e Öcalan são classificados como entidades perigosas segundo a política do Facebook sobre Organizações e Indivíduos Perigosos.
Em 25 de janeiro de 2021, um usuário do Instagram, nos Estados Unidos, publicou uma foto de Öcalan com as palavras em inglês: “y’all ready for this conversation” (vocês estão todos prontos para esta conversa). Em uma legenda, o usuário escreveu que aquele era o momento de falar sobre o fim do isolamento de Öcalan na prisão na Ilha Imrali, na Turquia. O usuário incentivava os leitores a falar sobre a prisão e a natureza desumana do confinamento em solitária de Öcalan.
Após avaliação por um moderador, a publicação foi removida, em 12 de fevereiro, de acordo com as regras do Facebook sobre organizações e indivíduos perigosos, por ser uma chamada para ação em apoio a Öcalan e ao PKK. Quando o usuário fez uma apelação da decisão, foi informado de que não seria possível analisar a apelação dele por causa de uma redução temporária na capacidade de pessoal do Facebook devido à COVID-19. Entretanto, um segundo moderador fez uma análise do conteúdo e concluiu que violava a mesma política. O usuário então fez uma apelação ao Comitê de Supervisão.
Depois que o Comitê selecionou o caso e o atribuiu ao painel, o Facebook concluiu que uma orientação interna na política sobre Organizações e Indivíduos Perigosos foi “equivocadamente não transferida” para um novo sistema de análise, em 2018. Essa orientação, desenvolvida em 2017, de certa forma em resposta à preocupação sobre as condições do encarceramento de Öcalan, permite a discussão sobre as condições do confinamento de indivíduos classificados como perigosos.
De acordo com essa orientação, o Facebook restaurou o conteúdo no Instagram em 23 de abril. O Facebook disse ao Comitê que no momento está trabalhando em uma atualização das políticas para permitir que os usuários discutam os direitos humanos dos indivíduos classificados como perigosos. A empresa pediu ao Comitê para fornecer insight e orientação sobre como melhorar essas políticas. Embora o Facebook tenha atualizado seu Padrão da Comunidade sobre organizações e indivíduos perigosos em 23 de junho de 2021, essas alterações não afetam diretamente a orientação que a empresa solicitou ao Comitê.
Principais conclusões
O Comitê concluiu que a decisão original do Facebook de remover o conteúdo não foi consistente com os Padrões da Comunidade da empresa. Como a orientação interna desconsiderada especifica que os usuários podem discutir as condições de confinamento de um indivíduo classificado como perigoso, a publicação era permitida segundo as regras do Facebook.
A preocupação do Comitê é que, por três anos, o Facebook perdeu orientações específicas sobre uma exceção de política importante. A política do Facebook de ter como padrão a remoção de conteúdo que demonstre “apoio” a indivíduos classificados, mantendo exceções importantes ocultas do público, permitiu que esse erro passasse despercebido por um período prolongado. O Facebook só descobriu que essa política não estava sendo aplicada por causa do usuário que decidiu fazer a apelação da decisão da empresa ao Comitê.
Embora o Facebook tenha dito ao Comitê que está realizando uma análise de como ocorreu a falha da transferência dessa orientação para seu novo sistema de análise, também declarou: “não é tecnicamente possível determinar quantos conteúdos foram removidos enquanto essa política esteve indisponível aos analistas”. O Comitê acredita que o erro do Facebook pode ter levado à remoção equivocada de muitas outras publicações e que o relatório de transparência do Facebook não é suficiente para avaliar se esse tipo de erro repercute um problema sistemático. Neste caso, a ação do Facebook indica que a empresa não está respeitando o direito ao recurso, violando sua Política Corporativa de Direitos Humanos (Seção 3).
Mesmo sem a descoberta da orientação desconsiderada, o conteúdo não deveria ter sido removido. Na publicação, o usuário não defendeu a violência nem expressou apoio à ideologia de Öcalan ou ao PKK. Em vez disso, ele procurou destacar as preocupações com os direitos humanos relacionadas ao confinamento prolongado em solitária de Öcalan, que também foram levantadas por órgãos internacionais. Como era improvável que a publicação resultasse em danos, sua remoção não era necessária nem adequada segundo os padrões internacionais de direitos humanos.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original do Facebook de remover o conteúdo. O Comitê menciona que o Facebook já restaurou o conteúdo.
Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:
- Restaurar imediatamente a orientação desconsiderada de 2017 aos Padrões de Implementação Interna e às Perguntas Conhecidas (a orientação interna para moderadores de conteúdo).
- Avaliar os processos automatizados de moderação em relação à aplicação da política sobre Organizações e Indivíduos Perigosos. Onde for necessário, o Facebook deve atualizar classificadores para excluir dados de treinamento anteriores aos erros que resultaram na não aplicação da orientação de 2017.
- Publicar os resultados do processo de análise contínua para determinar se alguma outra política foi perdida, incluindo descrições de todas as políticas perdidas, o período em que foram perdidas e as medidas tomadas para restaurá-las.
- Garantir que o “fundamento da política” sobre Organizações e Indivíduos Perigosos repercuta que o respeito pelos direitos humanos e pela liberdade de expressão pode promover o valor “Segurança”. O fundamento da política deve especificar detalhadamente os “danos do mundo real” que a política procura evitar e interromper quando a “Voz” é suprimida.
- Adicionar à política uma explicação clara do que o “apoio” exclui. Os usuários devem ter a liberdade de discutir supostos abusos dos direitos humanos dos membros das organizações classificadas.
- Explicar nos Padrões da Comunidade como os usuários podem deixar claro para o Facebook a intenção deles nas publicações.
- Garantir engajamento significativo de pessoas interessadas nas alterações propostas na política sobre Organizações e Indivíduos Perigosos por meio do Fórum de Política de Produtos, incluindo por meio de um convite público para envio de contribuições.
- Garantir que orientações e treinamento internos sejam fornecidos aos moderadores de conteúdo sobre qualquer alteração proposta da política.
- Garantir que os usuários sejam notificados quando o conteúdo deles for removido. A notificação deve indicar se a remoção é por causa de uma solicitação do governo, de uma violação dos Padrões da Comunidade ou de uma alegação do governo de que uma lei nacional foi violada (e o alcance jurisdicional de qualquer remoção).
- Esclarecer para os usuários do Instagram que os Padrões da Comunidade do Facebook aplicam-se igualmente ao Instagram.
- Incluir, em seu relatório de transparência, informações sobre o número de solicitações de remoção de conteúdo recebidas dos governos com base em violações dos Padrões da Comunidade (não em violações da lei nacional) e os resultados dessas solicitações.
- Incluir, em seu relatório de transparência, informações mais abrangentes sobre taxas de erros na aplicação de regras sobre “exaltação” e “apoio” de organizações e indivíduos perigosos, detalhadas por região e idioma.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão revogou a decisão original do Facebook de remover uma publicação no Instagram que incentiva as pessoas a discutir o confinamento em solitária de Abdullah Öcalan, uma pessoa classificada como indivíduo perigoso pelo Facebook. Depois que o usuário fez a apelação e o Comitê selecionou o caso para análise, o Facebook concluiu que o conteúdo foi removido por engano e restaurou a publicação no Instagram.
O Facebook explicou que, em 2018, “equivocadamente não transferiu” para um novo sistema de análise uma orientação da política interna que permitia aos usuários discutir condições do confinamento de indivíduos classificados como perigosos O Comitê acredita que, se o Facebook fosse mais transparente em relação às suas políticas, o dano desse erro poderia ter sido mitigado ou totalmente evitado. Mesmo sem a orientação de política interna desconsiderada, o Comitê concluiu que o conteúdo jamais deveria ter sido removido. Ele era simplesmente uma chamada para debater a necessidade da detenção de Öcalan no confinamento em solitária e sua remoção não atendia ao objetivo da política sobre Organizações e Indivíduos Perigosos de “evitar e interromper danos no mundo real”. Em vez disso, a remoção resultou em uma restrição da liberdade de expressão no que se refere a uma preocupação com os direitos humanos.
2. Descrição do caso
O caso envolve conteúdo relacionado a Abdullah Öcalan, membro fundador do Partido dos Trabalhadores do Curdistão (PKK). O PKK foi fundado na década de 1970 com o objetivo de estabelecer um estado curdo independente no sudeste da Turquia, na Síria e no Iraque. O grupo usa violência na tentativa de alcançar seu objetivo. O PKK foi classificado como organização terrorista por Estados Unidos, União Europeia, Reino Unido e Turquia, entre outros. Öcalan está preso na Ilha Imrali, na Turquia, desde a sua condenação, em 1999, por realizar atos de violência visando a secessão de uma parte do território da Turquia (Caso Ocalan contra Turquia, Tribunal Europeu de Direitos Humanos).
Em 25 de janeiro de 2021, um usuário do Instagram nos Estados Unidos publicou uma foto de Öcalan com as palavras em inglês: “y’all ready for this conversation” (vocês estão todos prontos para esta conversa). Abaixo da imagem, o usuário escreveu que aquele era o momento de falar sobre o fim do isolamento de Öcalan na prisão na Ilha Imrali. O usuário incentivava os leitores a falar sobre a prisão e a natureza desumana do confinamento em solitária de Öcalan, incluindo por meio de greves de fome, protestos, ação legal, editoriais, grupos de leitura e memes. O conteúdo não pedia a libertação de Öcalan, não mencionava o PKK nem apoiava a violência.
A publicação foi automaticamente sinalizada pelo Facebook e, após avaliação por um moderador, foi removida, em 12 de fevereiro, por violar a política sobre Organizações e Indivíduos Perigosos. O usuário fez uma apelação da decisão e foi informado de que a decisão era final e não seria possível analisá-la por causa de uma redução temporária na capacidade de pessoal do Facebook devido à COVID-19. Entretanto, um segundo moderador analisou o conteúdo e também concluiu ser uma violação da política sobre Organizações e Indivíduos Perigosos. O usuário recebeu uma notificação explicando que a decisão inicial foi confirmada por uma segunda análise. O usuário então fez uma apelação ao Comitê de Supervisão.
O Comitê selecionou o caso para análise e o atribuiu a um painel. Enquanto preparava o fundamento da decisão para o Comitê, o Facebook encontrou uma orientação interna na política sobre Organizações e Indivíduos Perigosos que permite a discussão ou o debate sobre as condições de confinamento de indivíduos classificados como perigosos. Essa orientação foi desenvolvida em 2017, de certa forma em resposta à preocupação internacional sobre as condições do encarceramento de Öcalan. O Facebook explicou que, em 2018, a orientação “equivocadamente não foi transferida” para um novo sistema de análise. A orientação também não foi compartilhada na equipe de política do Facebook que estabelece as regras sobre o que é permitido na plataforma. Embora a orientação continuasse tecnicamente acessível para os moderadores de conteúdo em um anexo de treinamento, a empresa reconhece a dificuldade de encontrá-la durante os procedimentos padrão de análise e que, neste caso, o analista não teve acesso a ela. Essa orientação é um documento estritamente interno criado para auxiliar os moderadores do Facebook e não repercutiu nos Padrões da Comunidade exibidos para o público do Facebook nem nas Diretrizes da Comunidade do Instagram.
O Facebook só descobriu que essa política não estava sendo aplicada por causa do usuário que decidiu fazer a apelação ao Comitê da decisão do Facebook de remover seu conteúdo. Se não fossem as ações desse usuário, é possível que esse erro nunca fosse descoberto. A partir de 29 de junho, o Facebook ainda precisa reintegrar a política interna desconsiderada à orientação para moderadores de conteúdo. A empresa explicou para o Comitê que: “trabalhará para garantir que a orientação que fornecer aos seus analistas de conteúdo a esse respeito seja clara e mais fácil de acessar para ajudar a evitar futuros erros de monitoramento”.
O Facebook devolveu o conteúdo ao Instagram em 23 de abril e notificou o Comitê de que “está trabalhando em uma atualização das políticas para esclarecer que os usuários podem debater ou discutir as condições de confinamento de indivíduos classificados como terroristas ou outras violações dos direitos humanos deles, mas continuará a proibir conteúdo que enalteça ou apoie os atos violentos desses indivíduos”. A empresa agradeceu “o insight e a orientação do Comitê de Supervisão sobre como encontrar um equilíbrio apropriado entre incentivar a expressão em assuntos que envolvam direitos humanos e, ao mesmo tempo, garantir que a sua plataforma não seja usada para disseminar conteúdo de exaltação ou apoio de terroristas ou atos violentos”.
3. Autoridade e escopo
O Comitê tem autoridade para analisar a decisão do Facebook após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). O Comitê pode manter ou reverter essa decisão (Artigo 3, Seção 5 do Estatuto). De acordo com a decisão sobre o caso 2020-004-IG-UA, o fato de o Facebook reverter uma decisão contra a qual um usuário fez uma apelação não impede a análise do caso.
As decisões do Comitê são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto).
O Comitê é um mecanismo de reclamações independente com o objetivo de abordar contestações de uma maneira transparente e íntegra.
4. Padrões relevantes
Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:
I. Políticas de conteúdo do Facebook:
As Diretrizes da Comunidade do Instagram estabelecem que o “Instagram não é um lugar para apoiar ou enaltecer terrorismo, crime organizado ou grupos de ódio”. Esta seção das Diretrizes inclui um link para o Padrão da Comunidade do Facebook sobre Organizações e indivíduos perigosos (há um registro de alteração repercutindo a atualização de 23 de junho dos Padrões da Comunidade aqui). Em resposta a uma pergunta do Comitê, o Facebook confirmou que os Padrões da Comunidade se aplicam igualmente ao Instagram e ao Facebook.
O Padrão da Comunidade sobre Organizações e indivíduos perigosos determina que: "em um esforço para evitar e interromper danos no mundo real, não permitimos que organizações ou indivíduos que divulguem uma missão violenta ou estejam envolvidos em violência tenham presença no Facebook". O Padrão afirmou ainda, quando foi aplicado, que o Facebook remove “conteúdo que expresse apoio ou enalteça grupos, líderes ou indivíduos envolvidos nessas atividades”.
II. Valores do Facebook:
Os valores do Facebook são descritos na introdução aos Padrões da Comunidade.
O valor “Voz” é definido como “fundamental”:
o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
O Facebook limita a “Voz” com base em quatro valores, e um deles é relevante aqui:
“Segurança”: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.
III. Padrões de Direitos Humanos:
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em março de 2021, o Facebook anunciou sua Política Corporativa de Direitos Humanos, na qual se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:
- Liberdade de expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP). Artigo 6, Defensores da Declaração sobre Direitos Humanos A/RES/53/144 (1998). Comitê de Direitos Humanos, Comentário Geral n.º 34 (2011). Relator Especial sobre a liberdade de opinião e expressão,A/HRC/38/35 (2018), A/74/486 (2019). Relator Especial sobre direitos humanos e combate ao terrorismo, A/HRC/40/52 (2019).
- Direito ao recurso: Artigo 2 do PIDCP; Comitê de Direitos Humanos, Comentário Geral n.º 31 (2004).
- Proibição de tortura, tratamento cruel, desumano ou degradante ou punição: Regra 43, Normas mínimas padrão da ONU sobre tratamento de prisioneiros (as Regras de Nelson Mandela) A/Res/70/175 (2016).
5. Declaração do usuário
Na apelação ao Comitê, o usuário explicou que publicou o conteúdo para incentivar a discussão sobre a filosofia do Öcalan e o fim do isolamento dele. O usuário disse acreditar que o banimento da comunicação sobre Öcalan e a filosofia dele impede discussões que poderiam levar a um entendimento pacífico do povo curdo no Oriente Médio. Ele também afirmou não desejar promover a violência e que acreditava que não deveria haver um banimento da publicação de imagens de Öcalan no Instagram. O usuário alegou que a associação do rosto do Öcalan com organizações criminosas não se baseia em fatos, mas é difamação e um esforço contínuo de silenciar uma conversa importante. Ele comparou a prisão de Öcalan à do ex-presidente sul-africano Nelson Mandela, enfatizando que a comunidade internacional tem a função de esclarecer a prisão de Öcalan como fez com a de Mandela.
6. Explicação sobre a decisão do Facebook
Inicialmente, o Facebook concluiu que o conteúdo era uma chamada para ação em apoio a Öcalan e o PKK, a qual violou a política sobre Organizações e Indivíduos Perigosos. Öcalan foi cofundador do PKK, classificado pelos Estados Unidos como organização terrorista estrangeira, como observa o Facebook. Com base nessa classificação da organização, o Facebook adicionou Öcalan à sua lista de indivíduos classificados como perigosos. Segundo a política sobre Organizações e Indivíduos Perigosos, o Facebook remove todo o conteúdo que considere apoiar esses indivíduos.
Após o Comitê selecionar este caso para análise, o Facebook analisou o conteúdo em relação às suas políticas novamente e descobriu ter desenvolvido orientação interna nessa área em 2017. Na explicação da situação, o Facebook declarou que equivocadamente não transferiu essa orientação quando mudou para um novo sistema de análise, em 2018, e não a compartilhou com toda a sua equipe de política.
Essa orientação permite conteúdo em que o autor esteja pedindo pela liberdade de um terrorista, desde que o contexto seja compartilhado de uma maneira que defenda a paz ou o debate do encarceramento do terrorista. Na aplicação dessa orientação, o Facebook concluiu que o conteúdo, neste caso, se enquadrava perfeitamente nela e o restaurou.
7. Envios de terceiros
O Comitê recebeu 12 comentários públicos relacionados a este caso. Seis vieram dos Estados Unidos e Canadá, quatro da Europa e dois do Oriente Médio e da África do Norte.
Os envios abordaram temas que incluíram a falta de transparência envolvendo a política sobre Organizações e Indivíduos Perigosos, bem como sua inconsistência com a lei internacional de direitos humanos, e que chamadas para discussão do confinamento em solitária não constituem exaltação nem apoio.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8. Análise do Comitê de Supervisão
8.1 Conformidade com as políticas de conteúdo do Facebook
O Comitê concluiu que a decisão do Facebook de remover o conteúdo não foi consistente com os Padrões da Comunidade da empresa. O Padrão da Comunidade sobre organizações e indivíduos perigosos não definia o que constituía “apoio” a organizações ou indivíduos classificados como perigosos, até a atualização em 23 de junho de 2021.
Em janeiro de 2021, o Comitê recomentou ao Facebook definir publicamente exaltação, apoio e representação, bem como fornecer exemplos mais ilustrativos de como a política é aplicada ( caso 2020-005-FB-UA). Em fevereiro, o Facebook comprometeu-se a “adicionar texto ao nosso Padrão da Comunidade sobre Organizações e indivíduos perigosos nas próximas semanas explicando que removeremos conteúdo se a intenção não for clara e adicionaremos definições de “exaltação”, “apoio” e “representação” nos próximos meses”. Em 23 de junho de 2021, o Facebook atualizou esse padrão para incluir as definições. O Comitê também recomendou ao Facebook esclarecer o relacionamento entre as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook ( caso 2020-004-IG-UA). A partir de 29 de junho, o Facebook também terá de informar o Comitê de suas ações de implementação desse compromisso.
No presente caso, após uma solicitação do Comitê, o Facebook compartilhou a orientação interna com os moderadores de conteúdo sobre o significado de “apoio” de indivíduos e organizações classificados. Ela define uma “chamada para ação em apoio” como uma chamada para direcionar um público para agir em favor de uma organização classificada como perigosa ou em favor da respectiva causa. Esse texto não repercutiu nos Padrões da Comunidade exibidos para o público quando este conteúdo foi publicado e não foi incluído na atualização publicada em 23 de junho de 2021.
Além disso, a orientação desconsiderada e não divulgada ao público criada em 2017 em resposta ao confinamento em solitária de Öcalan deixa claro que as discussões das condições do confinamento de um indivíduo classificado como perigoso são permitidas e não constituem apoio. Na ausência de qualquer outro contexto, o Facebook considera declarações pedindo pela liberdade de um terrorista como apoio e esse conteúdo é removido. Novamente, esse texto não repercutiu nos Padrões da Comunidade exibidos para o público.
A preocupação do Comitê é que a orientação específica para moderadores sobre uma exceção de política importante ficou perdida por três anos. Essa orientação deixa claro que o conteúdo, neste caso, não estava em violação. Se o Comitê não tivesse selecionado este caso para análise, a orientação teria permanecido desconhecida para os moderadores de conteúdo, e uma quantidade significativa da expressão de interesse público teria sido removida.
Este caso demonstra o motivo pelo qual as regras públicas são importantes para os usuários. Além de informar sobre o que é esperado, elas também permitem que os usuários indiquem erros do Facebook. O Comitê compreende a apreensão do Facebook em relação à divulgação total de suas regras internas de moderação de conteúdo. A preocupação é que alguns usuários possam tirar vantagem disso para disseminar conteúdo prejudicial. Entretanto, a política do Facebook de ter como padrão a remoção de conteúdo que demonstre “apoio” a indivíduos classificados, mantendo exceções importantes ocultas do público, permitiu que esse erro passasse despercebido pela empresa por cerca de três anos sem qualquer responsabilização. A atualização de junho de 2021 no Padrão da Comunidade sobre Organizações e indivíduos perigosos fornece mais informações sobre o que o Facebook considera ser “apoio”, mas não explica para os usuários quais exceções poderiam ser aplicadas a essas regras.
Mesmo sem a descoberta da orientação desconsiderada, o conteúdo não deveria ter sido removido por “apoiar”. Esse tipo de chamada para ação não deve ser interpretado como apoio aos objetivos perigosos do PKK. O usuário apenas incentivava as pessoas a discutir o confinamento em solitária de Öcalan, incluindo por meio de greves de fome, protestos, ação legal, editoriais, grupos de leitura e memes. Pelo mesmo critério, a remoção do conteúdo neste caso não atendeu ao objetivo estabelecido pela política de evitar e interromper danos no mundo real.
8.2 Conformidade com os valores do Facebook
O Comitê concluiu que a decisão do Facebook de remover esse conteúdo não estava em conformidade com os valores “Voz” e “Segurança” da empresa.
O usuário criou cuidadosamente a publicação chamando para uma discussão sobre o fim do isolamento de Öcalan na prisão na Ilha Imrali. Ele incentivou os leitores a discutir a desumanidade do confinamento em solitária e por que seria necessário manter Öcalan confinado dessa maneira. O usuário defendeu ações pacíficas para provocar essa discussão e não defendeu nem incentivou a violência na publicação. Ele também não expressou apoio à ideologia de Öcalan ou ao PKK.
O Comitê concluiu que expressões que desafiem a violação dos direitos humanos são fundamentais para o valor "Voz". Isso é especialmente importante no que se refere aos direitos das pessoas detidas, que podem não ser capazes de defender os próprios direitos de forma eficaz, particularmente nos países com suspeita de tratamento indevido de prisioneiros e onde a defesa dos direitos humanos possa estar suprimida.
O valor “Segurança” foi conceitualmente incluído porque o conteúdo se referia a um indivíduo classificado como perigoso. Entretanto, a remoção do conteúdo não abordou uma preocupação clara com a “Segurança”. O conteúdo não incluía texto que incentivasse ou defendesse o uso da violência. Ele não tinha o potencial de “intimidar, excluir ou silenciar outros usuários”. Em vez disso, a decisão do Facebook suprimiu de forma ilegítima a voz de uma pessoa levantando preocupações com os direitos humanos.
8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook
A remoção do conteúdo foi inconsistente com o compromisso da empresa de respeitar os direitos humanos, como estabelecido em sua Política Corporativa de Direitos Humanos. Em relação a conteúdo terrorista, o Facebook é um signatário da Chamada de Christchurch, cujo objetivo é “eliminar” a disseminação de “conteúdo terrorista e extremista violento” online. O Comitê está ciente das preocupações com os direitos humanos levantadas pela sociedade civil referentes à Chamada de Christchurch, mas mesmo assim requer que as empresas de redes sociais apliquem os padrões da comunidade “de maneira consistente com os direitos humanos e as liberdades fundamentais”.
I. Liberdade de expressão (Artigo 19 do PIDCP)
O Artigo 19 especifica que todos têm o direito à liberdade de expressão, o que inclui a liberdade de buscar, receber e partilhar informações. O direito à liberdade de expressão inclui a discussão dos direitos humanos (Comentário Geral 34, parágrafo 11) e é uma “condição necessária para a realização dos princípios de transparência e responsabilidade” (Comentário Geral 34, parágrafo 3). Além disso, a Declaração da ONU sobre Defensores dos Direitos Humanos diz que todos têm o direito de “estudar, discutir, formar e defender opiniões sobre a observância, na lei e na prática, de todos os direitos humanos e liberdades fundamentais e, por esses e outros meios apropriados, de chamar a atenção do público para essas questões” (A/RES/53/144, Artigo 6(c)).
O usuário procurou destacar preocupações sobre o confinamento prolongado e em solitária de um indivíduo. O Comitê enfatiza que os órgãos internacionais levantaram preocupações com essas práticas em relação aos direitos humanos. As Regras de Nelson Mandela estabelecem que os Estados devem proibir o confinamento prolongado e indefinido em solitária como forma de tortura ou tratamento cruel, desumano ou degradante de punição ( A/Res/70/175, Regra 43). A discussão das condições da detenção de qualquer indivíduo e das supostas violações dos seus direitos humanos em custódia se encaixa perfeitamente nos tipos de expressão protegidos pelo Artigo 19 do PIDCP, como enfatizado na Declaração da ONU sobre Defensores dos Direitos Humanos.
Embora o direito à liberdade de expressão seja fundamental, ele não é absoluto. Pode ser restrito, mas as restrições devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3, PIDCP). O Comitê de Direitos Humanos estabeleceu que restrições na expressão não devem “colocar em risco o direito em si” e enfatizou que “a relação entre o direito e a restrição e entre a norma e a exceção não deve ser invertida” (Comentário Geral nº 34, parágrafo 21). O Relator Especial da ONU para a liberdade de expressão enfatizou que as empresas de redes sociais devem procurar alinhar as políticas de moderação de conteúdo sobre empresas e indivíduos perigosos a esses princípios (A/74/486, parágrafo 58(b)).
a.Legalidade (clareza e acessibilidade das regras)
As restrições sobre a expressão devem ser formuladas com precisão suficiente para que as pessoas entendam o que é proibido e ajam devidamente (Comentário Geral 34, parágrafo 25). Essas regras também devem estar acessíveis ao público. Para os que as aplicam, a precisão das regras é importante para restringir o critério, evitar a tomada de decisão arbitrária e proteger contra preconceitos.
O Comitê recomendou, no caso 2020-005-FB-UA, que o Padrão da Comunidade sobre Organizações e indivíduos perigosos seja corrigido a fim de definir “representação”, “exaltação” e “apoio”, e reiterou essas preocupações no caso 2021-003-FB-UA. O Comitê menciona que o Facebook já definiu esses termos publicamente. O Relator Especial da ONU para a liberdade de expressão descreveu as proibições das plataformas de redes sociais sobre “exaltação” e “apoio” como “excessivamente vagas” (A/HRC/38/35, parágrafo 26; consulte também: Comentário Geral nº 34, parágrafo 46). Em um comentário público enviado ao Comitê (PC-10055), o Relator Especial da ONU para direitos humanos e combate ao terrorismo enfatizou que, embora o Facebook tenha feito algum progresso no esclarecimento de suas regras nessa área, “as Diretrizes e o Padrão são (ainda) insuficientemente consistentes com a lei internacional e, na prática, podem comprometer certos direitos fundamentais, incluindo, entre outros, o direito de expressão, associação, participação da vida pública e não discriminação”. Vários comentários públicos fizeram observações semelhantes.
O Comitê observou que o Facebook oferece orientações internas e confidenciais abrangentes aos analistas para que interpretem as políticas de conteúdo da empresa exibidas para o público a fim de garantir uma moderação consistente e não arbitrária. No entanto, é inaceitável que regras importantes sobre o que está excluído da definição de apoio do Facebook não sejam repercutidas nos Padrões da Comunidade exibidos para o público.
b. Objetivo legítimo
As restrições à liberdade de expressão devem ter um objetivo legítimo. O PIDPC lista os objetivos legítimos no Artigo 19, parágrafo 3, que inclui a proteção dos direitos de terceiros. O Comitê observa que, devido à reversão da decisão do Facebook contra a qual o usuário fez uma apelação, após a seleção dela pelo Comitê, a empresa não usou como justificativa um objetivo legítimo. Em vez disso, enquadrou a remoção como um erro.
Os Padrões da Comunidade explicam que a política sobre Organizações e Indivíduos Perigosos procuram evitar e interromper danos no mundo real. O Facebook já tinha informado o Conselho de que a política limita a expressão para proteger “os direitos alheios”, o que o Comitê aceitou ( caso 2020-005-FB-UA).
c. Necessidade e proporcionalidade
As restrições à liberdade de expressão devem ser necessárias e adequadas para atingir um objetivo legítimo. Isso requer que haja uma conexão direta entre a expressão e a ameaça claramente identificada (Comentário Geral 34, parágrafo 35), e as restrições ‘’devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, (de acordo com o parágrafo 34 do Comentário geral n.º 34.
Como o Facebook implicitamente reconheceu ao reverter sua decisão após o Comitê selecionar este caso, a remoção do conteúdo não era necessária nem proporcional. Na visão do Comitê, a abrangência do termo “apoio” nos “Padrões da Comunidade”, combinada com a desconsideração da orientação interna sobre o que ela exclui, levou a uma remoção desnecessária e desproporcional. O conteúdo, neste caso, chamava para uma discussão sobre o fim do isolamento de Öcalan no confinamento prolongado na solitária. Ele falava sobre a pessoa de Öcalan e não indicava apoio a atos violentos cometidos por ele ou pelo PKK. Não demonstrava intenção de incitar violência nem a probabilidade, se essa declaração ou outras como ela fossem mantidas, de resultar em danos.
A preocupação específica do Comitê é em relação à remoção pelo Facebook de conteúdo sobre questões de interesse público em países em que as proteções legais e institucionais nacionais dos direitos humanos, especificamente da liberdade de expressão, são insatisfatórias (casos 2021-005-FB-UA e 2021-004-FB-UA). O Comitê compartilha da preocupação enunciada pela Relatora Especial da ONU para direitos humanos e combate ao terrorismo em suas propostas, de que a “proteção dos direitos humanos abaixo do ideal na plataforma [...] pode ter enormes consequências em termos de proteção global de certos direitos, de limitação do espaço cívico e de consolidação negativa das tendências em governança, responsabilidade e Estado de direito, em vários cenários nacionais”. O Comitê observa que o Relator Especial da ONU para liberdade de expressão tem demonstrado preocupações especificas a esse respeito na Turquia ( A/HRC/41/35/ADD.2).
II.Direito a recursos (Artigo 2 PIDCP)
O direito a recursos é um componente essencial da lei de direitos humanos ( Comentário Geral 31) e é o terceiro pilar dos Princípios Orientadores da ONU sobre Empresas e Direitos Humanos. A Relatora Especial da ONU para liberdade de expressão declarou que o processamento dos recursos “deve incluir um processo transparente e acessível de apelação contra decisões da plataforma, com as empresas fornecendo uma resposta fundamentada que também deve estar publicamente acessível” (A/74/486, para 53).
Neste caso, o usuário foi informado de que não havia apelação devido à COVID-19. No entanto, uma apelação foi feita. Mais uma vez, o Comitê enfatiza a necessidade de o Facebook restaurar o processo de apelação em conformidade com as recomendações feitas nos casos 2020-004-IG-UA e 2021-003-FB-UA.
Neste caso, embora o conteúdo do usuário tenha sido restaurado, a preocupação do Comitê é com o número significativo de remoções que não deveriam ter ocorrido devido à orientação interna perdida do Facebook que permitia a discussão sobre condições de confinamento de indivíduos classificados. O Facebook informou o Comitê de que está realizando uma análise da não transferência dessa orientação para seu novo sistema de análise, bem como se alguma outra política foi perdida. Contudo, em resposta a uma pergunta do Comitê, a empresa disse que “não é tecnicamente possível determinar quantos conteúdos foram removidos enquanto essa política estava indisponível para os analistas”.
A preocupação do Comitê é que o relatório de transparência do Facebook não seja suficiente para avaliar significativamente se o tipo de erro identificado neste caso repercute um problema sistemático. Nas perguntas enviadas ao Facebook, o Comitê solicitou mais informações sobre taxas de erros na aplicação de regras sobre “exaltação” e “apoio” de organizações e indivíduos perigosos. O Facebook explicou que não coletava taxas de erro das regras individuais na política sobre Organizações e Indivíduos Perigosos nem em relação à aplicação de exceções específicas contidas somente em sua orientação interna. O Facebook indicou para o Comitê informações disponíveis publicamente sobre a quantidade de conteúdo restaurado depois de ser incorretamente removido por violar sua política sobre Organizações e Indivíduos Perigosos. O Comitê observa que isso não fornece o mesmo tipo de detalhes que seriam repercutidos nas auditorias internas e no controle de qualidade para avaliar a precisão da aplicação. O Facebook reconheceu detalhar internamente as taxas de erro das decisões de aplicação por moderadores e por automação, mas se recusou a fornecer essa informação ao Comitê sob a alegação de que “as informações não são necessárias para a tomada de decisão de acordo com a intenção do Estatuto”.
Além disso, o Comitê perguntou ao Facebook se o conteúdo permitiria uma apelação ao Comitê caso fosse removido por violar os Padrões da Comunidade após um governo sinalizá-lo. O Facebook confirmou que a apelação ao Comitê nesses casos está disponível. Eles são diferentes daqueles que são removidos por solicitação do governo para cumprir a lei local e que, segundo o Artigo 2, Seção 1.2 dos Regulamentos internos, dispensam análise. Embora o Comitê não tenha motivo para acreditar que esse conteúdo foi objeto de uma indicação do governo, está preocupado com o fato de os usuários, cujo conteúdo é removido de acordo com os Padrões da Comunidade, e o Comitê não serem informados sobre onde houve envolvimento do governo na remoção do conteúdo. Isso pode ser relevante especialmente nas decisões de aplicação posteriormente identificadas como erros, bem como onde os usuários suspeitem de envolvimento do governo mas não haja esse envolvimento. O relatório de transparência do Facebook também tem limitações a esse respeito. Ele inclui estatísticas sobre solicitações legais do governo de remoção do conteúdo com base na lei local, mas não inclui dados sobre o conteúdo removido por violação dos Padrões da Comunidade após um governo sinalizar esse conteúdo.
Esse conjunto de preocupações indica que o Facebook não está respeitando o direito ao recurso, violando sua Política Corporativa de Direitos Humanos (Seção 3).
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original do Facebook de remover o conteúdo e exige que a publicação seja restaurada. O Comitê menciona que o Facebook aceitou que a sua decisão original estava incorreta e já restaurou o conteúdo.
10. Declaração de parecer consultivo
Como observado anteriormente, o Facebook alterou o Padrão da Comunidade sobre organizações e indivíduos perigosos depois de solicitar ao Comitê orientações sobre como esse Padrão da Comunidade deve funcionar. Essas recomendações levam em consideração as atualizações do Facebook.
A orientação interna desconsiderada
Como há alterações pendentes na política sobre Organizações e Indivíduos Perigosos exibida para o público, o Comitê recomenda ao Facebook tomar as medidas provisórias a seguir para reduzir a aplicação equivocada da política existente:
1. Restaurar imediatamente a orientação desconsiderada de 2017 aos Padrões de Implementação Interna e às Perguntas Conhecidas (a orientação interna para moderadores de conteúdo), informando todos os moderadores de conteúdo de que ela existe e organizado treinamento imediato sobre ela.
2. Avaliar os processos automatizadas de moderação referentes à aplicação da política sobre Organizações e Indivíduos Perigosos e, onde for necessário, atualizar classificadores para excluir dados de treinamento anteriores aos erros que resultaram na não aplicação da orientação de 2017. Novos dados de treinamento devem ser adicionados para repercutir a restauração dessa orientação.
3. Publicar os resultados do processo de análise contínua para determinar se alguma outra política foi perdida, incluindo descrições de todas as políticas perdidas, o período em que foram perdidas e as medidas tomadas para restaurá-las.
Atualização da política sobre Organizações e Indivíduos Perigosos
O Facebook notificou o Comitê de que está trabalhando em uma atualização das suas políticas para esclarecer que as regras sobre “exaltação” e “apoio” não proíbem discussões sobre as condições de confinamento de indivíduos classificados nem outras violações dos direitos humanos deles.
Como contribuição inicial para o processo de desenvolvimento dessa política, o Comitê recomenda ao Facebook:
4. Repercutir no “fundamento da política” sobre Organizações e Indivíduos Perigosos que o respeito aos direitos humanos e à liberdade de expressão, principalmente discussões abertas sobre violações e abusos dos direitos humanos no que se refere ao terrorismo e ao combate ao terrorismo, pode promover o valor “Segurança”, e que é importante a plataforma fornecer um espaço para essas discussões. “Segurança” e “Voz” às vezes podem entrar em conflito. É por isso que o fundamento da política deve especificar detalhadamente os “danos do mundo real” que a política procura evitar e interromper quando a “Voz” é suprimida.
5. Adicionar à política sobre Organizações e Indivíduos Perigosos uma explicação clara do que o “apoio” exclui. Os usuários devem ter a liberdade de discutir supostas violações e abusos dos direitos humanos dos membros das organizações classificadas. Isso não deve se limitar a indivíduos detidos. Deve incluir discussão dos direitos protegidos pelas convenções de direitos humanos da ONU, como citado na Política Corporativa de Direitos Humanos do Facebook. Deve permitir, por exemplo, discussões sobre alegações de tortura ou de tratamento ou punição cruel, desumano ou degradante, violações do direito a um julgamento justo, bem como execuções extrajudiciais, sumárias ou arbitrárias, desaparecimento forçado, rendição extraordinária e revogação da cidadania levando à situação de pessoa apátrida. Chamadas à responsabilidade por violações e abusos dos direitos humanos também devem ser protegidas. Conteúdo que incentive atos de violência ou recrute pessoas para participar ou fornecer material em apoio a organizações classificadas pelo Facebook deve ser excluído da proteção, mesmo que esse conteúdo também discuta preocupações sobre os direitos humanos. A intenção do usuário, o contexto mais amplo no qual fez a publicação e como os outros usuários entendem a publicação dele são fundamentais para determinar a probabilidade de dano no mundo real resultante dessa publicação.
6. Explicar nos Padrões da Comunidade como os usuários podem deixar claro para o Facebook a intenção deles nas publicações. A implementação da recomendação do Comitê de divulgar publicamente a lista de indivíduos e organizações designados (consulte o caso 2020-005-FB-UA) pode ajudar. O Facebook também deve fornecer exemplos ilustrativos a fim de demonstrar a linha entre o conteúdo permitido e o proibido, incluindo em relação à aplicação da regra esclarecendo o que “apoio” exclui.
7. Garantir engajamento significativo de pessoas interessadas nas alterações propostas da política por meio do Fórum de Política de Produtos, incluindo por meio de um convite público para envio de contribuições. O Facebook deve promover esse engajamento em vários idiomas nas regiões, garantindo a participação efetiva dos indivíduos mais afetados pelos danos que essa política busca impedir. Esse engajamento também deve incluir organizações de direitos humanos, sociedade civil e acadêmicas com conhecimento especializado sobre esses danos, bem como sobre os danos que podem resultar da aplicação excessiva da atual política.
8. Garantir que orientações e treinamento internos sejam fornecidos aos moderadores de conteúdo sobre qualquer política nova. Os moderadores devem receber recursos adequados para poder entender a nova política e devem ter tempo adequado para tomar decisões ao aplicar a política.
Procedimento adequado
Para aprimorar o procedimento adequado para os usuários cujo conteúdo é removido, o Facebook deve:
9. Garantir que os usuários sejam notificados quando o conteúdo deles for removido. A notificação deve indicar se a remoção é por causa de uma solicitação do governo, de uma violação dos Padrões da Comunidade ou de uma alegação do governo de que uma lei nacional foi violada (e o alcance jurisdicional de qualquer remoção).
10. Esclarecer para os usuários do Instagram que os Padrões da Comunidade do Facebook aplicam-se igualmente ao Instagram e ao Facebook, de acordo com a recomendação contida no caso 2020-004-IG-UA.
Relatório de transparência
Para aumentar o entendimento do público em relação ao nível de eficácia da implementação da política analisada, o Facebook deve:
11. Incluir informações sobre o número de solicitações de remoção de conteúdo que recebeu dos governos com base nas violações dos Padrões da Comunidade (não em violações da lei nacional) e o resultado dessas solicitações.
12. Incluir informações mais abrangentes sobre taxas de erros na aplicação de regras sobre “exaltação” e “apoio” de organizações e indivíduos perigosos, detalhadas por região e idioma.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões não representam necessariamente as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas