Anulado
Vídeo de delegacia de polícia no Haiti
O Comitê de Supervisão anulou a decisão da Meta de remover um vídeo que mostrava pessoas entrando em uma delegacia de polícia no Haiti, tentando arrombar uma cela onde estava um suposto membro de uma gangue e ameaçando-o com violência.
Para ler esta decisão em crioulo haitiano, clique aqui.
Pou li desizyon sa an Kreyòl Ayisyen, klike isit la.
Resumo
O Comitê de Supervisão anulou a decisão da Meta de remover um vídeo do Facebook que mostrava pessoas entrando em uma delegacia de polícia no Haiti, tentando arrombar uma cela onde estava um suposto membro de uma gangue e o ameaçando com violência. O Comitê conclui que o vídeo violou a Política sobre Violência e Incitação da empresa. No entanto, a maioria dele discorda da avaliação da Meta sobre a aplicação da permissão para conteúdo de interesse jornalístico nesse caso. Para a maior parte, o atraso de quase três semanas da Meta na remoção do conteúdo significou que o risco de danos no meio físico havia diminuído o suficiente para que uma permissão para conteúdo de interesse jornalístico fosse aplicada. Além disso, o Comitê recomenda que a empresa avalie a eficácia e a pontualidade das suas respostas ao conteúdo escalado por meio do Programa de Parceiros Confiáveis.
Sobre o caso
Em maio de 2023, um usuário do Facebook publicou um vídeo mostrando pessoas à paisana entrando em uma delegacia, tentando arrombar uma cela em que estava um homem – que é suspeito de ser membro de uma gangue, segundo a Meta – e gritando “we’re going to break the lock” (vamos quebrar a fechadura) e “they’re already dead” (eles já estão mortos). Perto do final do vídeo, alguém grita “bwa kale na boudaw”, que a Meta interpretou como uma incitação ao grupo para “tomar medidas contra a pessoa no estilo ‘bwa kale’, em outras palavras, para linchá-la”. Ela também interpretou “bwa kale” como uma referência ao movimento civil no Haiti que envolve pessoas que fazem justiça com as próprias mãos. O vídeo é acompanhado por uma legenda em crioulo haitiano que inclui a afirmação: “the police cannot do anything” (a polícia não pode fazer nada). A publicação foi vista mais de 500 mil vezes, e o vídeo, cerca de 200 mil vezes.
O Haiti vive um momento de insegurança sem precedentes, com gangues assumindo o controle do território e aterrorizando a população. Com a polícia incapaz de lidar com a violência e, em alguns casos, considerada cúmplice, surgiu um movimento que viu “mais de 350 pessoas [serem] linchadas por populações locais e grupos de justiceiros” em um período de quatro meses este ano, de acordo com o Alto Comissariado da ONU para os Direitos Humanos. Em retaliação, as gangues se vingaram daqueles que eles acreditam pertencerem ou simpatizarem com o movimento.
Um Parceiro Confiável sinalizou o vídeo à Meta como potencialmente violador 11 dias após sua publicação, alertando que o conteúdo poderia incitar mais violência. O Programa de Parceiros Confiáveis da Meta é uma rede de organizações não governamentais, agências humanitárias e pesquisadores de direitos humanos de 113 países. A Meta disse ao Comitê que, quanto “maior o nível de risco [de violência em um país], maior será a prioridade para o desenvolvimento de relações com Parceiros Confiáveis”, que podem denunciar conteúdo à empresa. Cerca de oito dias após o relatório do Parceiro Confiável nesse caso, a Meta determinou que o vídeo incluía uma declaração de intenção de cometer violência de alta gravidade, incluindo uma incitação a isso, e removeu o conteúdo do Facebook. A Meta encaminhou esse caso ao Comitê para abordar as difíceis questões de moderação geradas pelo conteúdo relacionado ao movimento “Bwa Kale” no Haiti. Ela não aplicou a permissão para conteúdo de interesse jornalístico porque a empresa concluiu que o risco de danos era elevado e superava o valor de utilidade pública da publicação, observando o padrão contínuo de represálias violentas e assassinatos no Haiti.
Principais conclusões
O Comitê conclui que o conteúdo violou o Padrão da Comunidade sobre Violência e Incitação do Facebook porque havia uma ameaça clara de dano no meio físico à pessoa na cela, inclusive a outras pessoas. No entanto, a maioria do Comitê discorda da Meta sobre a aplicação da permissão para conteúdo de interesse jornalístico nesse caso. Dado o atraso de quase três semanas entre a publicação e a remoção, a empresa deveria ter aplicado essa permissão para manter o conteúdo na plataforma, pois o Comitê entende que o risco de dano e a utilidade pública envolvidos em qualquer análise de interesse jornalístico devem ser avaliados no momento em que a Meta considera conceder uma permissão, e não quando um conteúdo é publicado. O Comitê considera que a Meta deveria atualizar a linguagem voltada ao público sobre a permissão para conteúdo de interesse jornalístico a fim de esclarecer isso aos usuários.
Para a maioria dos membros dele, o atraso de quase três semanas da empresa na remoção do conteúdo significou que o risco de danos no meio físico havia diminuído o suficiente para que uma permissão para conteúdo de interesse jornalístico fosse aplicada. Esse grupo considerou o contexto no Haiti, a extensão e o alcance da publicação e a probabilidade de danos devido ao atraso na aplicação. Naquele momento, quando o vídeo já tinha 200 mil visualizações, o risco que o conteúdo representava provavelmente já havia se concretizado. Além disso, em uma situação de violência prolongada e generalizada e colapso na ordem pública, compartilhar informações se torna ainda mais importante para permitir que as comunidades reajam aos acontecimentos. Sendo assim, o vídeo tem o potencial de informar as pessoas dentro e fora do Haiti sobre a realidade no país.
No entanto, uma minoria de membros do Comitê considera que a Meta estava certa em não aplicar a permissão. Como o conteúdo foi publicado durante um período de risco elevado, a possibilidade de o vídeo gerar uma retaliação e mais violência ainda existia quando a Meta analisou o conteúdo. Esses membros do Comitê consideram a remoção necessária para abordar esses riscos.
O Comitê está preocupado com a capacidade da Meta de moderar conteúdo no Haiti em tempo hábil durante esse período de risco elevado. O atraso nesse caso parece ser o resultado da falha da empresa em investir recursos adequados na moderação de conteúdo no Haiti. A Meta não conseguiu fornecer uma avaliação oportuna do relatório do seu Parceiro Confiável. Os relatórios de Parceiros Confiáveis são uma das principais ferramentas que a Meta utiliza no Haiti para identificar conteúdo potencialmente violador. Um relatório recente de um Parceiro Confiável constatou que a Meta não dispõe de recursos adequados para suas próprias equipes analisarem o conteúdo identificado pelos Parceiros Confiáveis e há irregularidades significativas nos tempos de resposta.
Finalmente, o Comitê observa que a empresa não conseguiu ativar seu Protocolo de Política de Crise no Haiti. Embora a Meta tenha dito ao Comitê que já tinha medidas de mitigação de riscos em vigor, ele está preocupado com o fato de o longo atraso nesse caso indicar que as medidas existentes são inadequadas. Se a empresa não utilizar esse protocolo nessas situações, ela não fornecerá moderação oportuna ou baseada em princípios, prejudicando a capacidade da empresa e do público de avaliar a eficácia do protocolo no cumprimento dos seus objetivos.
Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover esse conteúdo e exige que a publicação seja restaurada.
O Comitê recomenda que a Meta:
- Avalie a pontualidade e a eficácia de suas respostas ao conteúdo escalado por meio do Programa de Parceiros Confiáveis, para lidar com o risco de danos, especialmente quando a Meta não possui ou tem limitação de ferramentas, processos ou medidas de moderação proativa para identificar e avaliar o conteúdo.
- O Comitê também aproveita a oportunidade para lembrar à Meta uma recomendação anterior, do caso Poema russo, que pede que a empresa torne pública uma exceção à sua Política sobre Violência e Incitação. Essa exceção permite conteúdo que “condena ou conscientiza sobre a violência”, mas a Meta exige que o usuário deixe claro que está publicando o conteúdo por qualquer um desses dois motivos. *Os resumos de casos fornecem uma visão geral do caso e não têm valor precedente.
Decisão completa sobre o caso
1: Resumo da decisão
O Comitê de Supervisão anula a decisão da Meta de remover uma publicação no Facebook de um vídeo que mostrava um grupo de pessoas entrando em uma delegacia de polícia no Haiti. Enquanto a multidão tenta obter acesso a uma cela trancada onde está um suposto membro de uma gangue, pessoas da multidão gritam: “we’re going to break the lock” (vamos quebrar a fechadura) e “they’re already dead” (eles já estão mortos), e outras frases com ameaça de violência. O Comitê conclui que a publicação violou a Política sobre Violência e Incitação da Meta, pois retrata a incitação à violência em um contexto em que há uma ameaça clara de danos no meio físico à pessoa na cela, inclusive a outras pessoas. Entretanto, a maioria do Comitê discorda da avaliação da empresa sobre a aplicação da permissão para conteúdo de interesse jornalístico nesse caso. Para a maioria, dado o atraso de quase três semanas na remoção do conteúdo pela Meta, o risco de danos diminuiu significativamente, e a empresa deveria ter mantido o conteúdo na plataforma, considerando o valor de utilidade pública da publicação. Para uma minoria do Comitê, a Meta estava certa em não aplicar a permissão para conteúdo de interesse jornalístico nesse caso, uma vez que o risco de o vídeo poder gerar violência adicional e retaliatória não havia passado quando a empresa o analisou, levando em conta o contexto geral de violência generalizada e contínua de gangues e de “autodefesa” ou de “justiceiros” no Haiti. O Comitê também considera que, para cumprir suas responsabilidades em relação aos direitos humanos, a Meta deve garantir que a moderação de conteúdos no Haiti durante esse período de risco elevado seja eficaz e oportuna. Ele recomenda que a Meta avalie a pontualidade e a eficácia de suas respostas ao conteúdo escalado por meio do Programa de Parceiros Confiáveis, incluindo a eficácia da Meta no fornecimento de respostas oportunas às escalations e quais medidas corretivas a empresa planeja adotar para melhorar os tempos de resposta à escalations de Parceiros Confiáveis.
2: Descrição do caso e histórico
Em maio de 2023, um usuário do Facebook publicou um vídeo com uma legenda no idioma crioulo haitiano. O vídeo retrata um grande número de pessoas, à paisana, entrando em uma delegacia de polícia e se aproximando de uma cela trancada com um homem dentro. Segundo a Meta, o homem dentro da cela é suspeito de ser membro da “5 Seconds Gang” (Gangue dos 5 segundos, em tradução literal), que dispõe de muito armamento e notoriedade no Haiti. O vídeo também mostra um indivíduo do grupo na delegacia tentando quebrar a fechadura da cela. Várias outras pessoas gritam palavras de encorajamento, incluindo “we’re going to break the lock” (vamos quebrar a fechadura) e “they’re already dead” (eles já estão mortos). Próximo ao fim do vídeo, alguém grita “bwa kale na boudaw”. De acordo com a interpretação da Meta ao encaminhar o caso ao Comitê, essa frase interpretada literalmente significa “wooden stick up your ass” (pau no seu rabo), e dado o contexto, indicava uma incitação para que o grupo tome medidas contra a pessoa no “estilo bwa kale”, em outras palavras, para linchá-la. A Meta interpreta que o uso do termo “bwa kale” se refere ao movimento civil de mesmo nome que envolve pessoas fazendo justiça com as próprias mãos contra supostos membros de gangues.
O vídeo vem acompanhado de uma legenda descrevendo o que acontece e afirmando que “police cannot do anything, things are going to get weird” (a polícia não pode fazer nada, as coisas vão ficar sinistras). De acordo com especialistas linguísticos consultados pelo Comitê, a legenda transmite uma perda de confiança na polícia e uma perspectiva desoladora sobre o que poderá acontecer a seguir. A publicação foi visualizada cerca de 500 mil vezes e compartilhada mais de 200 mil vezes.
Um Parceiro Confiável sinalizou o vídeo à Meta como potencialmente violador 11 dias após sua publicação no Facebook, alertando que o conteúdo poderia incitar mais violência. A empresa avaliou o conteúdo e o removeu do Facebook por violar o Padrão da Comunidade sobre Violência e Incitação. O programa de Parceiros Confiáveis da Meta é uma rede de organizações não governamentais, agências humanitárias e defensores e pesquisadores dos direitos humanos de 113 países. A Meta disse ao Comitê que quanto “maior o nível de risco [de violência em um país], maior será a prioridade para o desenvolvimento de relações com Parceiros Confiáveis”. Os Parceiros Confiáveis podem denunciar conteúdo para a Meta e fornecer feedback sobre as políticas de conteúdo da empresa e as respectivas aplicações. Nesse caso, oito dias após o relatório do Parceiro Confiável, a Meta determinou que o vídeo incluía uma declaração de intenção de cometer violência de alta gravidade, incluindo uma incitação a isso, e removeu o conteúdo.
O contexto a seguir é pertinente para a decisão do Comitê. O Haiti vive um “ momento de insegurança sem precedentes,” com gangues assumindo o controle do território e aterrorizando a população. A polícia não consegue lidar com a violência e, em alguns casos, é declarada como cúmplice. De acordo com o Representante Especial da ONU no Haiti, “durante o primeiro trimestre do ano, foram registrados 1.647 incidentes criminais – homicídios, estupros, sequestros e linchamentos”, o que é mais que o dobro do número comparado com o mesmo período em 2022. Esse aumento da violência ocorre no meio de uma crise política e humanitária. O Haiti não tem um governo eleito desde o assassinato do presidente Jovenel Moïse em 2021 e enfrenta uma epidemia contínua de cólera e desastres naturais. Em março de 2023, a organização Médicos Sem Fronteiras (MSF) relatou ter tido que fechar um de seus hospitais como resultado da intensa violência na capital do país. O primeiro-ministro em exercício, Ariel Henry, fez um apelo repetidamente à comunidade internacional para que enviasse forças multinacionais a fim de combater o controle de gangues, citando isso como um primeiro passo necessário para “criar um ambiente para o Estado funcionar novamente”.
Um movimento civil, conhecido como “Bwa Kale”, surgiu em resposta ao aumento da violência e à incapacidade do governo ou da polícia em proteger a população. Um evento amplamente divulgado ocorrido em 24 de abril de 2023 revelou-se um momento crucial para o movimento. Quando a polícia haitiana parou um ônibus que transportava 14 homens armados, que supostamente se dirigiam para se juntar a uma gangue aliada em um distrito próximo, uma multidão reuniu-se no local. A polícia recuou e alguns foram vistos ajudando, enquanto a multidão apedrejava os supostos membros da gangue e ateavam fogo neles para morrerem queimados. As gravações desse evento circularam amplamente nas redes sociais. De acordo com um relatório da Rede Nacional de Defesa dos Direitos Humanos no Haiti, após a circulação dessas gravações nas redes sociais, outras pessoas “munidas de armas de fogo, facões e pneus, começaram a procurar bandidos armados, familiares deles, ou qualquer pessoa suspeita de ter ligações com eles, para linchá-los”. De acordo com o Alto Comissariado da ONU para os Direitos Humanos, entre 24 de abril e meados de agosto, “mais de 350 pessoas foram linchadas pela população local e por justiceiros”. Em retaliação, as gangues se vingaram daqueles que eles acreditam pertencerem ou simpatizarem com o movimento.
Em 2 de outubro de 2023, o Conselho de Segurança das Nações Unidas autorizou uma missão de segurança multinacional com duração de um ano no Haiti. De acordo com relatórios, levará vários meses até que forças sejam enviadas ao país.
3: Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar decisões que a Meta envia para análise, segundo a Seção 1 do Artigo 2 do Estatuto e a Seção 2.1.1 do Artigo 2 dos Regulamentos Internos.
De acordo com a Seção 5 do Artigo 3 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, de acordo com o artigo 4 do Estatuto. As decisões do Comitê podem incluir sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 do Estatuto, Seção 4; Artigo 4). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
4: Fontes de autoridade e orientação
Os seguintes padrões e as decisões precedentes fundamentaram a análise do Comitê nesse caso:
I. Decisões do Comitê de Supervisão
As decisões anteriores mais pertinentes do Comitê de Supervisão incluem as seguintes:
- Violência comunitária no estado indiano de Odisha
- Primeiro-ministro do Camboja
- Discurso de general brasileiro
- Poema russo
- Menção do Talibã na divulgação de notícias
- Publicação compartilhada da Al Jazeera
- Isolamento de Öcalan
- Suspensão do ex-presidente Trump
- Alegação sobre cura da COVID
- Citação nazista
II. Políticas de Conteúdo da Meta
A Política sobre Violência e Incitação da Meta “visa evitar possíveis danos no meio físico que possam estar relacionados ao conteúdo do Facebook”. O fundamento da política observa que nem todas as incitações à violência são literais e suscetíveis de estimular isso. No entanto, a empresa tenta “considerar a linguagem e o contexto para distinguir declarações casuais de conteúdos que constituam uma ameaça clara à segurança pública ou pessoal”. As regras da política proíbem “[d]eclarações de intenção de cometer violência de alta gravidade” e “[i]ncitações à violência de alta gravidade”. A Meta define violência de alta gravidade como uma ameaça que pode levar à morte ou que tem probabilidade de ser letal. Como parte do fundamento da política, a Meta explica que a empresa “vê ameaças aspiracionais ou condicionais dirigidas a terroristas e outros indivíduos violentos (por exemplo, ‘Terroristas merecem morrer’) e considera-os não claras, na ausência de provas específicas em contrário.”
A análise do Comitê foi fundamentada pelo compromisso da Meta com o valor Voz, que a empresa descreve como “fundamental”, incluindo o valor Segurança. Ao explicar seu compromisso com a Voz, a Meta afirma que “em alguns casos, permitimos conteúdo que de outra forma iria contra nossos padrões, se for interessante ou tiver utilidade pública”. Isso é conhecido como permissão para conteúdo de interesse jornalístico. É uma exceção à política geral aplicável a todos os Padrões da Comunidade. Para aplicar potencialmente essa permissão, a Meta realiza um teste de ponderação, avaliando a utilidade pública do conteúdo em relação ao risco de dano. A empresa remove conteúdo “mesmo que tenha algum grau de interesse jornalístico, quando ele apresenta risco de danos, como danos físicos, emocionais ou financeiros, ou ameaça direta à segurança pública”.
III. Responsabilidades da Meta com os direitos humanos
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, pelas iniciais em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades das empresas privadas em relação aos direitos humanos. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso em respeitar os direitos humanos de acordo com os UNGPs.
Ao analisar as responsabilidades da Meta com os direitos humanos no caso em questão, o Comitê levou em consideração as seguintes normas internacionais:
· Os direitos à liberdade de opinião e de expressão: Article 19, International Covenant on Civil and Political Rights (Artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos, PIDCP); General comment No. 34, Human Rights Committee, de 2011 (Comentário Geral n.º 34, do Comitê de Direitos Humanos, de 2011); Relatórios do relator especial da ONU sobre a liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/74/486 (2019).
· O direito à vida: Artigo 6 do PIDCP.
· A proibição da defesa do ódio que constitua incitação à discriminação, hostilidade ou violência: Artigo 20, parágrafo 2 do PIDCP; Plano de Ação de Rabat, Alto Comissariado da ONU para os Direitos Humanos, relatório: A/HRC/22/17/Add.4 (2013).
5: Envios do usuário
Após o encaminhamento da Meta e a decisão do Comitê de aceitar o caso, o usuário recebeu uma notificação sobre a análise do Comitê e uma oportunidade para enviar uma declaração a ele. No entanto, o usuário não a enviou.
6: Envios da Meta
A Meta determinou que o vídeo constituía tanto uma declaração de intenção de cometer violência de alta gravidade quanto uma incitação a isso contra o homem detido na cela, que, segundo a empresa, é suspeito de ser membro da “5 Seconds Gang”. A “5 Seconds Gang” é uma gangue com notoriedade no Haiti, chamada assim por causa da “percepção de que seus membros matam uma pessoa nessa velocidade”. Um membro da multidão pode ser ouvido no vídeo dizendo: “We’re going to break the lock…They’re already dead,” (Vamos quebrar a fechadura… Eles já estão mortos), o que a Meta considerou uma declaração de intenção de matar o homem. Ela também interpretou a frase “bwa kale na boudaw” como uma incitação para matá-lo. A empresa forneceu uma ampla análise da situação política, de segurança e humanitária no Haiti como um cenário para o risco de danos representado pelo conteúdo em questão. Também observou que a violência de gangues se tornou endêmica no país à medida que os representantes do governo se esforçam para manter a autoridade e que “a ação de justiceiros está contribuindo para uma cultura de violência retributiva extrajudicial”.
Ela considerou duas exceções específicas aos Padrões da Comunidade, bem como a permissão para conteúdo de interesse jornalístico, como parte de sua análise. Segundo a Meta, a empresa permitirá conteúdo que viole a Política sobre Violência e Incitação se for “compartilhado com o propósito de condenar ou conscientizar sobre a violência. A responsabilidade recai sobre o usuário em deixar claro que um desses propósitos é a intenção.” Nesse caso, a Meta não encontrou na publicação uma intenção clara de condenar ou conscientizar. Segundo ela, o fato de o vídeo ter sido compartilhado em uma página do Facebook que se autodenomina uma página de mídia não é suficiente para satisfazer essa exceção.
A Meta também afirmou que às vezes permite incitações à violência de alta gravidade em conteúdo direcionado a uma pessoa ou entidade designada nos termos da Política sobre Organizações e Indivíduos Perigosos da empresa. Segundo ela, essa exceção só se aplica se a empresa confirmar que o alvo é um indivíduo ou uma organização perigosa, ou membro de uma. Ela informou ao Comitê que designou a “5 Seconds Gang” como uma organização perigosa. No entanto, não conseguiu confirmar se o homem na cela mostrada no vídeo é integrante da gangue. Se a Meta tivesse conseguido confirmar a ligação dele com a gangue, o conteúdo não teria violado a proibição de incitação, segundo a empresa.
Finalmente, ao considerar a aplicação da permissão para conteúdo de interesse jornalístico, a Meta determinou que o risco de danos decorrentes da publicação superava seu valor de utilidade pública. Ela constatou que o vídeo poderia contribuir para a violência contra a “5 Seconds Gang” ou contra o movimento Bwa Kale. Embora o conteúdo tivesse valor ao notificar outras pessoas sobre a violência iminente e os acontecimentos em andamento, de acordo com a Meta, esse valor foi diminuído considerando a ampla cobertura do movimento Bwa Kale.
A Meta analisou os fatores do Plano de Ação de Rabat da ONU para avaliar se a publicação constitui uma incitação à violência e concluiu que “o discurso constituiu uma incitação à violência iminente”, uma vez que a ameaça era “específica e ligada a eventos violentos em andamento”.
Em resposta às perguntas do Comitê, a Meta informou a ele que a empresa não designou a situação no Haiti como uma crise no âmbito do Protocolo de Política de Crise (PPC), uma vez que ela já tinha medidas de mitigação em vigor quando o protocolo foi lançado em agosto de 2022.
O Comitê fez 18 perguntas à Meta por escrito. Questões relacionadas com a capacidade linguística da Meta na aplicação dos seus Padrões da Comunidade no Haiti; processos para a análise de relatórios de Parceiros Confiáveis e como o programa se relaciona com outros sistemas que a empresa utiliza em situações de crise; além de se e como ela usou o Protocolo de Política de Crise no Haiti. Todas foram respondidas.
7: Comentários públicos
O Comitê de Supervisão recebeu nove comentários públicos. Sete dos comentários foram enviados dos Estados Unidos e do Canadá, um da Ásia Pacífico e da Oceania e um da Europa.
Para ler os comentários públicos enviados sobre esse caso, clique aqui.
8: Análise do Comitê de Supervisão
O Comitê examinou se esse conteúdo deveria ser removido analisando as políticas de conteúdo, as responsabilidades e os valores de direitos humanos da Meta. Também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
Ele selecionou esse caso para examinar o papel das redes sociais no contexto de extrema insegurança e violência, e como as políticas e os sistemas de aplicação da Meta abordam o conteúdo compartilhado durante uma crise. Esse caso enquadra-se na prioridade estratégica do Comitê sobre Crises e Situações de Conflito.
8.1 Conformidade com as Políticas de Conteúdo da Meta
O Comitê considera que o conteúdo nesse caso viola o Padrão da Comunidade sobre Violência e Incitação. No entanto, a maioria do Comitê discorda da avaliação da Meta sobre a aplicação da permissão para conteúdo de interesse jornalístico. Para a maior parte, dado o atraso de quase três semanas na aplicação, a Meta deveria ter aplicado a permissão para conteúdo de interesse jornalístico para permitir que o conteúdo permanecesse no Facebook no momento em que a Meta o analisou.
I.Regras sobre conteúdo
a.Violência e incitação
A Meta proíbe “[d]eclarações de intenção de cometer violência de alta gravidade” e “[i]ncitações à violência de alta gravidade”. O Comitê considera que o conteúdo nesse caso viola ambas as políticas. O conteúdo retrata a incitação à violência em um contexto em que há uma ameaça clara de danos no meio físico à pessoa na cela, inclusive a outras pessoas. O vídeo mostra uma multidão tentando arrombar uma cela onde está um homem que supostamente é membro de uma gangue. As pessoas na multidão gritam que vão invadir o local e que o homem está “already dead” (já está morto). Essas são declarações que mostram a intenção de usar força letal. Uma pessoa da multidão grita “bwa kale na boudaw”, uma frase que, no contexto do Haiti, constitui uma incitação à violência de alta gravidade. Embora “bwa kale” seja utilizada em vários contextos, incluindo músicas e mensagens políticas, nesse caso, a frase é usada em um contexto que reflete eventos mortais em que civis mataram supostos membros de gangues ou seus aliados.
A Meta permite que conteúdo que viole a Política sobre Violência e Incitação permaneça na plataforma se for compartilhado para “conscientizar sobre a violência ou condená-la”. Essas exceções não estão incluídas na linguagem voltada ao público da política, mas são fornecidas no conjunto interno de instruções para moderadores de conteúdo. Para que a exceção seja aplicada, a empresa exige que o usuário deixe claro que está publicando o conteúdo por um dos dois motivos.
O Comitê considera que o usuário, nesse caso, não cumpriu esse requisito; portanto, o conteúdo não entra nessa exceção conforme definido pela Meta. A legenda que acompanha o vídeo é descritiva e se encerra com a seguinte afirmação: “[t]he police cannot do anything, things are going to get weird” ([a] polícia não pode fazer nada, as coisas vão ficar sinistras). Descrever o vídeo ou fornecer uma legenda neutra ou ambígua não atende ao padrão estabelecido pela Meta.
Às vezes, a empresa também permite incitações à violência de alta gravidade quando o alvo é membro de uma Organização ou Indivíduo Perigoso designado. Essa exceção é referida no fundamento da política da Meta para a Política sobre Violência e Incitação, embora não esteja definida nas regras. O Comitê concorda que essa exceção não se aplica nesse caso. No entanto, ele observa uma série de preocupações com ela. Em primeiro lugar, a exceção não está claramente articulada no Padrão da Comunidade voltado ao público. Em segundo lugar, como a lista de indivíduos e organizações designadas nas políticas da Meta não é pública, não há como um usuário saber como essa exceção se aplicaria ao conteúdo dele. O Comitê recomendou repetidamente que a Meta fornecesse maior clareza e transparência na Política sobre Organizações e Indivíduos Perigosos (ver Menção do Talibã na divulgação de notícias; Publicação compartilhada da Al Jazeera; Isolamento de Öcalan; e Citação nazista). Finalmente, segundo a Meta, a credibilidade da ameaça não é levada em consideração na aplicação dessa exceção. Se o alvo for uma entidade designada ou um indivíduo violento, o conteúdo será considerado não violador. O Comitê considera preocupante que ameaças claras contra qualquer pessoa designada nos termos da pouco clara Política sobre Organizações e Indivíduos Perigosos estejam isentas do Padrão da Comunidade sobre Violência e Incitação.
b. Permissão para conteúdo de interesse jornalístico
Embora o Comitê considere que o conteúdo viola o Padrão da Comunidade sobre Violência e Incitação, a maior parte de membros dele discorda da Meta sobre a aplicação da permissão para conteúdo de interesse jornalístico nesse caso. Em primeiro lugar, ele observa que o risco de dano e a utilidade pública envolvidos na análise de interesse jornalístico devem ser avaliados no momento em que a Meta está considerando emitir a permissão, e não no momento em que o usuário publicou o conteúdo. A Meta deveria atualizar a linguagem voltada ao público sobre a permissão para conteúdo de interesse jornalístico com o objetivo de esclarecer isso aos usuários. Idealmente, os dois momentos deveriam ser suficientemente próximos para evitar um resultado diferente, particularmente no contexto de violência generalizada e crescente que assola uma nação inteira. Infelizmente, nesse caso, quase três semanas se passaram entre a publicação do vídeo pelo usuário e a remoção do conteúdo pela Meta.
A maioria do Comitê considera que o risco de danos diminuiu significativamente quando a Meta tomou sua decisão (quase três semanas após a publicação da incitação retratada no vídeo) e ela deveria ter mantido o conteúdo aplicando a permissão. O vídeo tem o potencial de informar o público no Haiti, inclusive fora dele, sobre as realidades da violência e do colapso da ordem pública em um momento em que o país busca ajuda e intervenção internacionais. Qualquer que seja o risco que o conteúdo represente, inclusive para indivíduos identificáveis no vídeo, ele havia diminuído significativamente no momento em que a Meta emitiu a permissão, conforme discutido mais detalhadamente na análise da seção 8.2 (iii) abaixo. Se a empresa tivesse analisado o conteúdo logo após sua publicação pela primeira vez, o risco de danos teria superado a utilidade pública da publicação, como no caso Violência comunitária no estado Indiano de Odisha. Nesse caso, a Meta identificou e removeu o conteúdo poucos dias após sua publicação, em um momento de tensões elevadas e violência contínua, quando representava um risco sério e provável de aumento da violência, que superava o valor de utilidade pública do conteúdo. Nesse caso, dado o atraso da Meta na análise do conteúdo, o risco de danos diminuiu significativamente e foi compensado pelo seu valor de utilidade pública para proteger o acesso à informação, a fim de informar o público em geral sobre a situação no Haiti durante esse período. No momento em que a Meta fez sua avaliação de interesse jornalístico, a publicação já havia sido visualizada 500 mil vezes, e qualquer risco de dano que o vídeo representasse provavelmente já havia se concretizado. À medida que o interesse jornalístico é avaliado progressivamente pelas equipes internas da Meta, ela tem os recursos e a experiência para fazer uma avaliação ainda mais sensível ao contexto e levar em conta a mudança nas circunstâncias ao tomar essa decisão.
Para uma minoria de membros do Comitê, a Meta estava certa em não aplicar a permissão para conteúdo de valor jornalístico nesse caso. Embora o risco de danos aos indivíduos retratados no vídeo tenha sido maior nos dias seguintes à publicação do conteúdo, o risco de o vídeo poder gerar violência adicional e retaliatória não havia passado quando a Meta analisou o conteúdo, considerando o contexto geral da violência e da insegurança generalizadas e contínuas no Haiti. Portanto, os danos inerentes à presença do conteúdo na plataforma ainda superavam a utilidade pública em divulgar o discurso, conforme discutido mais detalhadamente na seção 8.2 (iii) abaixo. O risco de que outras pessoas, ao verem esse vídeo, pegassem em armas, se juntassem ao movimento e procurassem punir alguém não havia diminuído. Também não havia esgotado a possibilidade de um membro da “5 Seconds Gang,”, ou de uma gangue afiliada, reconhecer alguém no vídeo e buscar vingança contra essa pessoa, outros membros do movimento Bwa Kale ou da força policial. Para esses membros do Comitê, o fato de vários indivíduos serem identificáveis no vídeo e de o risco de retaliação estar bem estabelecido e contínuo significa que o conteúdo não deve se beneficiar da permissão, mesmo com o atraso.
8.2 Conformidade com as responsabilidades da Meta com os direitos humanos
A maioria do Comitê considera que a remoção desse conteúdo, três semanas após sua publicação, não era necessária e proporcional e que restaurar a publicação no Facebook é consistente com as responsabilidades de direitos humanos da Meta. O Comitê também considera que, para cumprir suas responsabilidades em relação aos direitos humanos, a Meta deve garantir que a moderação de conteúdos no Haiti durante esse período de risco elevado seja eficaz e oportuna.
Liberdade de expressão (Artigo 19 PIDCP)
O Artigo 19 do PIDCP prevê uma ampla proteção da expressão, incluindo “comentários sobre assuntos próprios e públicos”, inclusive expressões que as pessoas possam considerar ofensivas (Comentário Geral n.º 34, parágrafo 11). Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta, tanto em relação à decisão de conteúdo individual em análise quanto ao que isso diz sobre a abordagem mais ampla da Meta à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão ”(A/74/486, parágrafo 41).
I. Legalidade (clareza e acessibilidade das regras)
O princípio de legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, tanto para quem aplica as regras como para quem é afetado por elas (Comentário Geral n.º 34, parágrafo 25). As regras que restringem a expressão “podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são propriamente restritas e quais tipos não são” (Ibid). Aplicada às regras que regem o discurso online, o Relator Especial da ONU sobre liberdade de expressão reiterou que eles deveriam ser claros e específicos (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os moderadores de conteúdo devem ter orientações claras sobre sua aplicação.
O Comitê considera que, conforme aplicado aos fatos desse caso, a proibição da Meta contra declarações de intenção de cometer violência de alta gravidade, incluindo incitações a isso, está claramente indicada. Ele considera que a política e seu propósito aplicado a esse caso são suficientemente claros para satisfazer o requisito de legalidade.
No entanto, observa que a exceção de “conscientização ou condenação da violência” à Política sobre Violência e Incitação ainda não está disponível na linguagem voltada para o público da política. Deixar de incluir essas exceções na linguagem voltada ao público do Padrão da Comunidade e de explicar que cabe ao usuário a responsabilidade de deixar clara sua intenção levanta sérias preocupações de legalidade (consulte a seção 8.1 (1) (a) acima). No caso do Poema russo, o Comitê recomendou que a Meta acrescentasse à linguagem voltada ao público do seu Padrão da Comunidade sobre Violência e Incitação sua interpretação da política que permite conteúdo contendo declarações com “referência neutra a um possível resultado de uma ação ou aviso de advertência” e conteúdo que “condena ou conscientiza sobre ameaças violentas”. A Meta se comprometeu a fazer essa mudança, mas não atualizou o Padrão da Comunidade sobre Violência e Incitação em conformidade. O Comitê destaca essa recomendação novamente e pede para a Meta adicionar essa exceção à linguagem voltada ao público do Padrão da Comunidade.
II.Objetivo legítimo
Segundo o Artigo 19, parágrafo 3 do PIDCP, a expressão pode ser restringida por uma lista de motivos definida e limitada. Nesse caso, o Comitê considera que a proibição de declarações de intenções e incitações à prática de violência de alta gravidade prevista no Padrão da Comunidade sobre Violência e Incitação cumpre o objetivo legítimo de proteger a ordem pública e respeitar os direitos das pessoas.
III. Necessidade e proporcionalidade
O princípio da necessidade e da proporcionalidade mostra que qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora [e] ser proporcional ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34). O Comitê já usou os fatores do Plano de Rabat para analisar a necessidade e a proporcionalidade da remoção de conteúdo conforme o Padrão da Comunidade sobre Violência e Incitação quando a segurança pública estava em debate (ver Discurso de general brasileiro e Primeiro-ministro do Camboja). Nesse caso, o Comitê recorreu aos Fatores de Rabat para avaliar a necessidade e proporcionalidade da remoção desse conteúdo. O Comitê também considerou o longo atraso na análise desse conteúdo pela Meta e o que isso indica em relação à capacidade da empresa de cumprir suas responsabilidades com os direitos humanos na moderação de conteúdo no Haiti.
A maioria do Comitê considera que a remoção desse conteúdo, quase três semanas após sua publicação, já não era necessária. A maior parte considerou o contexto no Haiti, a extensão e o alcance da publicação e a probabilidade de danos, considerando o atraso entre a publicação do conteúdo e sua remoção. O risco que uma publicação apresenta depende do contexto em que é compartilhada. Esse contexto mudou quando a Meta não tomou nenhuma medida e, como resultado, o vídeo já tinha 200 mil visualizações no momento da análise. Para esses membros do Comitê, dado o atraso na análise do conteúdo pela Meta e o elevado número de visualizações que ocorreram anteriormente, qualquer risco que o conteúdo representasse provavelmente já se concretizou. Uma avaliação oportuna da Meta sobre essa publicação teria afetado a análise de necessidade e proporcionalidade e justificado sua remoção, como no caso Violência comunitária no estado indiano de Odisha, em que a remoção ocorreu poucos dias após o conteúdo ser publicado. Tendo em consideração o atraso na aplicação da Meta, a maioria acredita que a remoção não era mais necessária.
Além disso, em uma situação de violência generalizada e prolongada e de ruptura da autoridade governamental e da ordem pública, o compartilhamento de informações torna-se ainda mais importante para permitir que as comunidades reajam a eventos importantes que as afetam. Especialistas consultados pelo Comitê destacaram o fato de que as pessoas no Haiti dependem de informações compartilhadas no WhatsApp para se manterem informadas sobre potenciais riscos. Em um contexto em que “o trabalho dos jornalistas é restringido por ameaças e violência, [em que os ataques] a jornalistas ocorrem com frequência e a impunidade para os autores é a norma”, preservar o acesso à informação nas redes sociais torna-se ainda mais importante . Garantir que o conteúdo que documenta os eventos não seja removido desnecessariamente pode ajudar nos esforços para informar o público e identificar e responsabilizar aqueles que incitam e praticam a violência no Haiti.
No caso Alegação de cura da COVID-19, o Comitê enfatizou que a Meta deveria explicar a gama de opções que tem à sua disposição para alcançar objetivos legítimos (como prevenir danos) e articular por que o meio selecionado é o menos intrusivo . Conforme observado nessa decisão, a Meta deveria demonstrar publicamente três coisas ao determinar seus meios menos intrusivos: (1) o objetivo de utilidade pública não poderia ser tratado por meio de medidas que não prejudiquem a expressão; (2) dentre as medidas que infringem o discurso, o Facebook (sic) selecionou a medida menos intrusiva; e (3) a medida selecionada realmente ajuda a atingir o objetivo e não é ineficaz ou contraproducente (A/74/486, parágrafos 51-52).
Nesse caso, por exemplo, dado o interesse da comunidade internacional em avaliar a situação para ajudar a população do Haiti (conforme descrito acima), a Meta deveria justificar publicamente por que medidas como o bloqueio geográfico seriam insuficientes para evitar danos. Considerando que quase três semanas se passaram antes que a Meta analisasse o conteúdo, a empresa também deveria explicar por que medidas como impedir o engajamento com o conteúdo ou aplicar rebaixamentos não teriam sido suficientes para minimizar o risco de danos naquele momento. Em vez disso, a Meta parece pedir ao Comitê que avalie a necessidade e a proporcionalidade apenas dentro de uma caixa binária, em vez de considerar os impactos de toda a sua gama de ferramentas, como é exigido por uma abordagem séria de direitos humanos à moderação de conteúdo.
Para uma minoria do Comitê, a remoção desse conteúdo é necessária e proporcional, especialmente considerando o contexto no Haiti, a extensão e o alcance da publicação e a probabilidade de danos. O Comitê concluiu que esse vídeo foi publicado durante um período de risco elevado, com a intensificação da violência de gangues e o início de um movimento civil de “autodefesa” ou violência cometida por “justiceiros” contra supostos membros de gangues. Esse movimento já havia retirado suspeitos de gangues da custódia policial para matá-los, apedrejando-os, espancando-os e ateando fogo neles. De acordo com o Alto Comissariado da ONU para os Direitos Humanos, entre 24 de abril e meados de agosto, “mais de 350 pessoas foram linchadas pela população local e por justiceiros. Dentre os mortos, havia 310 supostos membros de gangues, outras 46 pessoas e um policial.” Vídeos desses eventos circularam nas redes sociais e foram vinculados à ação de pessoas que pegaram armas para se juntarem e procurarem membros suspeitos de gangues, com o objetivo de matá-los. Além disso, de acordo com relatórios do Alto Comissariado da ONU para os Direitos Humanos, membros do governo municipal e das forças policiais, suspeitos de serem simpatizantes dos grupos locais de autodefesa, foram mortos por gangues em um ato de vingança, incluindo outras pessoas suspeitas de fazerem parte do movimento. O líder da “5 Seconds Gang” já ameaçou cometer vingança, incluindo assassinato, nas redes sociais. A publicação cita o nome da delegacia e mostra o rosto da pessoa que tenta arrombar a cela, além do de várias pessoas na multidão. Essa publicação foi visualizada mais de 500 mil vezes. Tendo em conta esses fatos, a ameaça de violência desse vídeo que circulava no Facebook era direta e iminente (Comentário Geral n.º 34, parágrafo 35), especialmente no período imediato após sua publicação, mas também quando a Meta conduziu sua análise. Além disso, para a minoria, nenhuma medida, a não ser a remoção, seria suficiente para proteger as pessoas retratadas e as que correm o risco de sofrer mais violência estimulada por esse vídeo.
O Comitê está preocupado com a capacidade da Meta de identificar proativamente e moderar, de forma efetiva, o conteúdo no Haiti em tempo hábil. Ele observa o risco aumentado de que os conteúdos contribuam diretamente para danos em um contexto em que a ordem pública e os serviços do governo estão ausentes e em que os assassinatos extrajudiciais e descentralizados se tornaram a principal ferramenta na luta pelo poder e controle.
Nesse caso, houve um atraso significativo na avaliação e remoção do conteúdo pela Meta. Esse atraso parece ser o resultado da falha da empresa em investir recursos adequados na moderação de conteúdo no Haiti. O Comitê já demonstrou preocupação com a falta de investimento da empresa na moderação de conteúdo em idiomas diferentes do inglês (ver, por exemplo, Menção do Talibã na divulgação de notícias, Publicação compartilhada da Al Jazeera e Isolamento de Öcalan). Nesse caso, a Meta não foi capaz de fornecer uma avaliação oportuna de um relatório de um Parceiro Confiável, que é uma das principais ferramentas a qual a Meta recorre no Haiti para identificar conteúdo potencialmente violador. Um relatório recente de um dos Parceiros Confiáveis da Meta que avaliou o programa encontrou irregularidades significativas nos tempos de resposta da empresa e concluiu que o programa tem poucos recursos. Os Parceiros Confiáveis investem tempo e recursos para alertar a Meta sobre conteúdo potencialmente perigoso em suas plataformas. O Comitê está preocupado com o fato de a Meta não disponibilizar recursos suficientes para as suas equipes internas avaliarem esses relatórios em tempo hábil.
Finalmente, a Meta não conseguiu ativar seu Protocolo de Política de Crise no Haiti. No caso Suspensão do ex-presidente Trump, o Comitê pediu à Meta para desenvolver e publicar uma política que reja suas respostas a crises e situações novas em que seus processos regulares não impediriam ou evitariam danos iminentes. Em resposta, a Meta criou o Protocolo de Política de Crise, que visa “codificar as respostas específicas da política [da empresa] para garantir que [a Meta] seja oportuna, sistemática e proporcional em uma crise” ( Protocolo de Política de Crise, Atas do Fórum de Políticas, 25 de janeiro de 2022). Nesse caso, a empresa disse ao Comitê que não designou a situação no Haiti como uma crise no âmbito do protocolo, uma vez que foi “desenvolvida para facilitar a avaliação oportuna e a mitigação de crises novas ou emergentes”, e já tinha medidas de mitigação de riscos em vigor no Haiti quando o Protocolo de Política de Crise passou a ser usado em agosto de 2022. No entanto, o Comitê teme que, se a empresa não utilizar o Protocolo de Política de Crise nessas situações, não conseguirá fornecer moderação oportuna e baseada em princípios nessas circunstâncias. Muitas crises e conflitos em todo o mundo estão em curso ou têm períodos de violência ou danos graves que diminuem e ressurgem dependendo das circunstâncias. A Meta deve ter um mecanismo implementado para avaliar os riscos nessas crises e fazer a transição das medidas de mitigação existentes para as fornecidas pelo Protocolo de Política de Crise. A não utilização do Protocolo de Política de Crise nessas circunstâncias prejudica a capacidade da empresa e do público de avaliar a eficácia do protocolo no cumprimento de seus objetivos.
O Comitê entende que a Meta deve tomar decisões difíceis quando se trata de como priorizar recursos para seus vários sistemas de moderação de conteúdo (ou seja, desenvolver classificadores específicos de idioma, contratar moderadores de conteúdo, implementar o Protocolo de Política de Crise ou priorizar medidas operacionais como Parceiros Confiáveis). No entanto, para cumprir suas responsabilidades em relação aos direitos humanos, a Meta deve garantir que a moderação de conteúdos no Haiti, durante esse período de risco elevado, seja eficaz e oportuna.
9: Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo e exige que a publicação seja restaurada.
10: Recomendações
Aplicação
1. Para lidar com o risco de danos, especialmente quando a Meta não possui ou tem limitação de ferramentas, processos ou medidas de moderação proativa para identificar e avaliar o conteúdo, ela deve avaliar a pontualidade e a eficácia das suas respostas ao conteúdo escalado por meio do Programa de Parceiros Confiáveis.
O Comitê considerará essa recomendação implementada quando a Meta compartilhar os resultados dessa avaliação com ele, incluindo a distribuição do tempo médio para a resolução final a escalations originadas de Parceiros Confiáveis desagregadas por país; os próprios objetivos internos da Meta para o tempo até a resolução final; e quaisquer medidas corretivas que esteja tomando caso esses objetivos não sejam cumpridos, incluindo a publicação de um resumo público de suas conclusões para demonstrar que cumpriu essa recomendação.
Política
O Comitê também reitera a seguinte recomendação do caso do Poema russo:
A Meta deve adicionar à linguagem voltada ao público do Padrão da Comunidade sobre violência e incitação que a empresa interpreta a política de forma a permitir conteúdo contendo declarações “com referência neutra a um possível resultado de uma ação ou um aviso de advertência” e “que condene ou aumenta a conscientização sobre ameaça violenta”.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões dele não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de seis continentes, e mais de 3.200 especialistas do mundo inteiro auxiliaram o Comitê. O Comitê também recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A Memetica, uma organização dedicada à pesquisa de código aberto sobre tendências de redes sociais, também forneceu análises. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 (trezentos e cinquenta) idiomas e trabalham de 5.000 (cinco mil) cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas