Anulado
Discurso del general brasileño
El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en Facebook que mostraba a un general brasileño incitando a las personas a "ir al Congreso Nacional y al Supremo Tribunal".
Resumen del caso
El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en Facebook que mostraba a un general brasileño incitando a las personas a "salir a las calles" e "ir al Congreso Nacional y al Supremo Tribunal". A pesar de que el Consejo reconoce que Meta implementó varias medidas para evaluar y mitigar los riesgos durante las elecciones y luego de estas, dado el riesgo potencial de que sus plataformas se usen para incitar actos violentos en un contexto electoral, Meta debería intensificar de forma continua sus iniciativas para prevenir, mitigar y afrontar las consecuencias adversas. El Consejo le recomendó a Meta elaborar un marco que le permita evaluar sus iniciativas de integridad de las elecciones, con el fin de evitar que sus plataformas se usen para promover la violencia política.
Información sobre el caso
La polarización en las elecciones presidenciales brasileñas de octubre de 2022 fue muy grande, y se difundieron de forma amplia y coordinada, tanto en internet como en la vida real, afirmaciones que cuestionaban la legitimidad de las elecciones. Entre otras cuestiones, se reclamaba la intervención militar, así como la ocupación de edificios gubernamentales para detener la transición a un nuevo Gobierno. El riesgo acrecentado de violencia política no se atenuó con la asunción del nuevo presidente electo Luiz Inácio Lula da Silva el 1 de enero de 2023, ya que continuaron los disturbios civiles, las manifestaciones y los campamentos frente a las bases militares.
Dos días más tarde, el 3 de enero de 2023, un usuario de Facebook publicó un video relacionado con las elecciones brasileñas de 2022. En el texto en portugués, se incitaba a "asediar" el Congreso de Brasil como "última alternativa". En el video, también se mostraba parte de un discurso pronunciado por un destacado general brasileño que apoyaba la reelección del expresidente Jair Bolsonaro. Allí, el general uniformado incitaba a las personas a "salir a las calles" e "ir al Congreso Nacional… [y al] Supremo Tribunal". Tras el discurso, aparecía una secuencia de imágenes, incluida una de un incendio ardiendo en la plaza de los Tres Poderes de Brasilia, que alberga las oficinas presidenciales, el Congreso y el Supremo Tribunal de Brasil. El texto que se encontraba superpuesto sobre la imagen decía (en portugués): "¡Vengan a Brasilia! Asaltémosla. Asediemos los tres poderes". Un texto superpuesto sobre otra imagen decía: "Queremos el código fuente", eslogan que los manifestantes usaron para cuestionar la confiabilidad de las máquinas de votación electrónica de Brasil.
El mismo día en que se publicó el contenido, un usuario lo reportó por infringir la norma comunitaria sobre violencia e incitación de Meta, en la que se prohíben las incitaciones a ingresar por la fuerza a lugares de alto riesgo. En total, cuatro usuarios reportaron el contenido siete veces entre el 3 y el 4 de enero. Después del primer reporte, un revisor examinó el contenido y determinó que no infringía las políticas de Meta. El usuario apeló la decisión, pero un segundo revisor la ratificó. Al día siguiente, cinco moderadores diferentes revisaron los otros seis reportes, y todos ellos determinaron que el contenido no infringía las políticas de Meta.
El 8 de enero, partidarios del expresidente Bolsonaro irrumpieron en el Congreso Nacional, el Supremo Tribunal y las oficinas presidenciales, ubicados en la "plaza de los Tres Poderes" de Brasilia, intimidaron a la policía y destruyeron las instalaciones. El 9 de enero, Meta declaró los disturbios del 8 de enero "acontecimiento infractor" en virtud de su política sobre personas y organizaciones peligrosas y dijo que eliminaría "todo contenido que apoyara o elogiara tales acciones". La empresa también anunció que "designó a Brasil lugar de alto riesgo temporal" y "comenzó a eliminar el contenido que incitaba a las personas a empuñar las armas u ocupar por la fuerza el Congreso, el Palacio presidencial y otros edificios federales".
Como consecuencia de que el Consejo eligiera este caso, Meta determinó que se había equivocado al decidir conservar el contenido en Facebook en reiteradas ocasiones. El 20 de enero de 2023, después de que el Consejo preseleccionara este caso, Meta eliminó el contenido.
Conclusiones principales
Este caso despertó inquietudes respecto de la efectividad de las iniciativas de integridad de las elecciones de Meta en el contexto de las elecciones generales brasileñas de 2022, así como en muchos otros lugares. Si bien, por lo general, cuestionar la integridad de las elecciones se considera un discurso protegido, en ciertas circunstancias, las afirmaciones generalizadas que pretenden socavar las elecciones pueden provocar violencia. En este caso, la intención del hablante, el contenido del discurso y su alcance, así como la probabilidad de que ocurrieran daños inminentes en el contexto político de Brasil de ese momento, justificaban la eliminación de la publicación.
Para que una publicación infrinja las reglas de Meta sobre las incitaciones a ingresar por la fuerza a lugares de alto riesgo, el lugar debe considerarse "de alto riesgo" y debe estar ubicado en una zona o región que se haya designado específicamente como "lugar de alto riesgo temporal". Si se tiene en cuenta que la publicación era una incitación inequívoca a ingresar por la fuerza a edificios gubernamentales ubicados en la plaza de los Tres Poderes de Brasilia ("lugares de alto riesgo" ubicados en un "lugar de alto riesgo temporal", Brasil), las decisiones iniciales de Meta de conservar este contenido durante una época de violencia política acrecentada constituyeron una desviación evidente respecto de sus propias reglas.
Al Consejo le preocupa mucho el hecho de que, a pesar de los disturbios civiles presentes en Brasil en el momento en que se publicó el contenido y la vasta proliferación de contenido similar las semanas y meses anteriores a los disturbios del 8 de enero, los moderadores de Meta hayan evaluado reiteradamente este contenido como no infractor y hayan omitido escalarlo a otras instancias de revisión. Asimismo, cuando el Consejo le pidió a Meta información sobre afirmaciones relacionadas específicamente con las elecciones, observadas en sus plataformas antes y después de las elecciones brasileñas, y durante estas, la empresa explicó que no cuenta con datos sobre la prevalencia de tales afirmaciones. El contenido de este caso se eliminó finalmente más de dos semanas después, cuando el acontecimiento infractor al que se incitaba ya había ocurrido y solo después de que el Consejo presentara el caso a Meta.
En respuesta a una pregunta del Consejo, Meta afirmó que, por lo general, no usa ninguna métrica en particular para determinar el éxito de sus iniciativas de integridad de las elecciones. En consecuencia, el Consejo resolvió que Meta debe elaborar un marco que le permita a la empresa evaluar sus iniciativas de integridad de las elecciones, así como informar de manera pública sobre el tema. La finalidad es proporcionarle a la empresa datos relevantes para mejorar su sistema de moderación de contenido de forma integral y decidir el mejor modo de asignar sus recursos en contextos electorales. Sin este tipo de información, ni el Consejo ni el público pueden evaluar la efectividad de las iniciativas de integridad de las elecciones de Meta de forma más general.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de conservar la publicación.
Asimismo, el Consejo le recomendó a Meta:
- Elaborar un marco que le permita evaluar sus iniciativas de integridad de las elecciones. Esto incluye crear y compartir métricas para evaluar el éxito de las iniciativas de integridad de las elecciones, por ejemplo, aquellas relacionadas con la aplicación de políticas de contenido de Meta y su enfoque para tratar los anuncios.
- Aclarar en su Centro de transparencia que, además del protocolo de la política de crisis, la empresa implementa otros protocolos a fin de prevenir y afrontar el riesgo de daño potencial que surge en contextos electorales u otros acontecimientos de alto riesgo.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en Facebook que mostraba a un general brasileño incitando a las personas a "salir a las calles" e "ir al Congreso Nacional y al Supremo Tribunal". Luego de dichas incitaciones, se mostraba una imagen de la plaza de los Tres Poderes de Brasilia, donde se ubican estos edificios gubernamentales, en llamas, con un texto superpuesto que decía: "¡Vengan a Brasilia! Asaltémosla. Asediemos los tres poderes". Según el Consejo, estas afirmaciones constituyen incitaciones evidentes e inequívocas a ocupar estos edificios y apoderarse de ellos en un contexto en el que partidarios de Bolsonaro rebatían los resultados de las elecciones y reclamaban la intervención militar para detener el curso de una transición de Gobierno. Después de que el Consejo preseleccionara esta publicación para revisión, Meta revirtió su decisión original y la eliminó de Facebook.
Este caso despertó inquietudes más amplias respecto de la efectividad de las iniciativas de integridad de las elecciones de Meta en el contexto de las elecciones generales brasileñas de 2022, así como en otros lugares. Cuestionar la integridad de las elecciones se considera, por lo general, un discurso protegido. Sin embargo, en ciertas circunstancias, las afirmaciones generalizadas en internet y en la vida real que pretenden socavar las elecciones, como las involucradas en este caso, pueden provocar violencia en la vida real. En Brasil, todo indicaba que surgiría dicha violencia. A pesar de que el Consejo reconoce que Meta implementó varias medidas para evaluar y mitigar los riesgos durante las elecciones y luego de estas, dado el riesgo potencial de que sus plataformas se usen para incitar actos violentos en un contexto electoral, Meta debería intensificar de forma continua sus iniciativas para prevenir, mitigar y afrontar las consecuencias adversas. Las iniciativas de integridad de las elecciones de Meta deberían abarcar la fase posterior a las elecciones para afrontar el riesgo de violencia en el contexto de una transición del poder.
Por lo tanto, el Consejo le recomendó a Meta elaborar un marco que le permita evaluar las iniciativas de integridad de las elecciones de la empresa, además de informar de forma pública sobre el tema. Un marco de esas características debería incluir métricas de éxito correspondientes a los aspectos más relevantes de las iniciativas de integridad de las elecciones de Meta, de modo que la empresa no solo pueda identificar y revertir los errores, sino también hacer un seguimiento de la efectividad de sus medidas en situaciones críticas. El Consejo también le recomendó a Meta brindar mayor claridad en lo que respecta a los distintos protocolos y medidas que implementa para evitar y afrontar el riesgo de daño potencial que surge en contextos electorales y otros acontecimientos de alto riesgo. Por ejemplo, nombrar y describir dichos protocolos, su objetivo, los puntos de contacto entre ellos y las diferencias que existen entre sí. Tales protocolos deben ser más efectivos, tener una cadena jerárquica clara y contar con el personal adecuado, en especial, cuando se opera en un contexto electoral en el que el riesgo de violencia política es mayor. Estas recomendaciones ayudarán a mejorar el sistema de moderación de contenido de la empresa de forma integral al poner a Meta en una mejor posición para evitar que sus plataformas se usen con el fin de fomentar la violencia política, así como para reforzar sus respuestas ante la violencia relacionada con las elecciones de forma más general.
2. Descripción del caso y contexto
El 3 de enero de 2023, un usuario de Facebook publicó un video relacionado con las elecciones brasileñas de 2022. En el texto en portugués, se incitaba a "asediar" el Congreso de Brasil como "última alternativa". En el video de un minuto y 32 segundos, se mostraba parte de un discurso pronunciado por un destacado general brasileño, partidario de la reelección del expresidente Jair Bolsonaro. Allí, el general uniformado incitaba a las personas a "salir a las calles" e "ir al Congreso Nacional… [y al] Supremo Tribunal". Tras el discurso, aparecía una secuencia de imágenes, incluida una de un incendio ardiendo en la plaza de los Tres Poderes de Brasilia, que alberga las oficinas presidenciales, el Congreso y el Supremo Tribunal de Brasil. El texto que se encontraba superpuesto sobre la imagen decía (en portugués): "¡Vengan a Brasilia! Asaltémosla. Asediemos los tres poderes". Un texto superpuesto sobre otra imagen decía: "Queremos el código fuente", eslogan que los manifestantes usaron para cuestionar la confiabilidad de las máquinas de votación electrónica de Brasil. El video se reprodujo más de 18.000 veces, pero nadie lo compartió.
Dos días antes de que el contenido se publicara, el oponente electoral de Bolsonaro, Luiz Inácio Lula da Silva, había asumido su cargo como presidente de Brasil tras ganar la segunda vuelta electoral el 30 de octubre de 2022 con el 50,9% de los votos. Los períodos que precedieron y siguieron a las dos vueltas de votación, así como el tiempo entre ellas, estuvieron marcados por un riesgo acrecentado de violencia política, impulsado por afirmaciones sobre un inminente fraude electoral. Este se basó en la supuesta vulnerabilidad de las máquinas de votación electrónicas brasileñas al hackeo. Antes de las elecciones, el entonces presidente Bolsonaro fomentó la desconfianza en el sistema electoral. Para ello, alegó fraude sin pruebas justificativas y afirmó que las máquinas de votación electrónica no eran confiables. Algunos oficiales militares repitieron afirmaciones similares sobre el fraude electoral y se pronunciaron a favor de la participación del ejército como árbitro en las disputas electorales. Se reportaron varias instancias de anuncios políticos que atacaban la legitimidad de las elecciones en las plataformas de Meta. Entre ellos, había publicaciones y videos que atacaban a autoridades judiciales y promovían un golpe militar. Además, Global Witness publicó un informe sobre Brasil en el que describía cómo Meta aprobaba anuncios políticos que infringían las Normas comunitarias, que circulaban en sus plataformas. Con los resultados, se hizo un rastreo que llevó a informes similares de la organización relativos a otros países, como Birmania y Kenia.
El período posterior a las elecciones estuvo acompañado por disturbios civiles, incluidas manifestaciones, barricadas y campamentos frente a las bases militares para solicitarles a las Fuerzas Armadas que anularan los resultados de las elecciones. De acuerdo con expertos que el Consejo consultó, el video de este caso apareció en internet por primera en octubre de 2022, poco después de que se conocieran los resultados electorales. Los días previos a los disturbios del 8 de enero, contenido similar circuló en diferentes plataformas de medios sociales. El 12 de diciembre de 2022, el mismo día en que el Tribunal Superior Electoral confirmó la victoria de Lula, un grupo de manifestantes a favor de Bolsonaro intentaron irrumpir en la sede central de la Policía Federal de Brasilia. Ocurrieron varios actos de vandalismo. El 24 de diciembre de 2022, hubo un intento de bombardeo cerca del aeropuerto internacional del país en Brasilia. El hombre responsable del ataque fue arrestado y confesó que su objetivo era dirigir la atención hacia su causa a favor del golpe.
El riesgo acrecentado de violencia política en Brasil no se atenuó con la asunción del nuevo presidente electo el 1 de enero de 2023. Sobre la base de investigaciones encargadas por el Consejo, la cantidad de afirmaciones falsas sobre las máquinas de votación alcanzó un valor máximo en las plataformas de Meta luego de la primera y la segunda vueltas de votación y, nuevamente, durante las semanas posteriores a la victoria de Lula. Asimismo, los días previos al 8 de enero, los partidarios de Bolsonaro usaron varios eslóganes codificados para fomentar manifestaciones en Brasilia, que se centraron específicamente en los edificios gubernamentales. Aparentemente, la mayor parte de la organización logística se realizó a través de canales de comunicación diferentes de Facebook.
En las misiones de observación electoral internacional, como la Organización de los Estados Americanos y el Centro Carter, se informó que no hubo pruebas sustanciales de fraude y que las elecciones se habían llevado a cabo de forma libre y justa, a pesar de las presiones surgidas a raíz de la gran polarización entre los votantes. El Ministerio de Defensa de Brasil también observó formalmente las elecciones e informó que no hubo evidencia de irregularidades o fraude, aunque, luego, divulgó una declaración contradictoria en la que reconoció que las Fuerzas Armadas "no descartan la posibilidad de fraude". En Brasil, el Ministerio de Defensa supervisa el trabajo de las Fuerzas Armadas.
Las tensiones culminaron el 8 de enero, cuando partidarios del expresidente Bolsonaro irrumpieron en el Congreso Nacional, el Supremo Tribunal y las oficinas presidenciales (ubicados en la "plaza de los Tres Poderes" de Brasilia, a la que se hace referencia en el contenido de este caso), intimidaron a la policía y destruyeron las instalaciones. Alrededor de 1.400 personas fueron arrestadas por participar en los disturbios del 8 de enero, y unas 600 aún permanecen en custodia.
Como consecuencia de los acontecimientos del 8 de enero, las Naciones Unidas condenaron el uso de violencia y manifestaron que se trató de "la culminación de la tergiversación constante de los hechos y la incitación a la violencia y el odio por parte de actores políticos, sociales y económicos quienes han estado alimentando una atmósfera de desconfianza, división y destrucción desde que rechazaron el resultado de las elecciones democráticas". Reiteraron su compromiso con las instituciones democráticas de Brasil, así como su confianza en ellas. Los comentarios del público y los expertos a los que consultó el Consejo señalaron el efecto dañino que las afirmaciones que preventivamente pusieron en duda la integridad del sistema electoral brasileño tuvo en la perpetración de la polarización política y la generación de violencia política en la vida real (consulta los comentarios del público enviados por Dangerous Speech Project [PC-11010], LARDEM - Clínica de Direitos Humanos da Pontifícia Universidade Católica do Paraná [PC-11011], Instituto Vero [PC-11015], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], Center for Democracy & Technology [PC-11018], InternetLab [PC-11019] y Coalizão Direitos na Rede [PC-11020]).
El 9 de enero de 2023, Meta declaró los disturbios del 8 de enero "acontecimiento infractor" en virtud de su política sobre personas y organizaciones peligrosas, y dijo que eliminaría "todo contenido que apoyara o elogiara tales acciones". La empresa también anunció que "antes de las elecciones" había "designado a Brasil lugar de alto riesgo temporal" y comenzado a "eliminar el contenido que incitaba a las personas a empuñar las armas u ocupar por la fuerza el Congreso, el Palacio presidencial y otros edificios federales".
El 3 de enero, el mismo día en que se publicó el contenido, un usuario lo reportó por infringir la norma comunitaria sobre violencia e incitación de Meta, en la que se prohíben las incitaciones a "ingresar por la fuerza a lugares […] en los que hay señales temporales de un riesgo elevado de violencia o daño en la vida real". En total, cuatro usuarios reportaron el contenido siete veces entre el 3 y el 4 de enero. Después del primer reporte, un moderador revisó el contenido y determinó que no infringía las políticas de Meta. El usuario apeló la decisión, pero un segundo moderador la ratificó. Al día siguiente, cinco moderadores diferentes revisaron los otros seis reportes, y todos ellos determinaron que el contenido no infringía las políticas de Meta. El contenido no se remitió a expertos en políticas o en la materia para realizar una revisión adicional. En respuesta a una pregunta del Consejo, Meta aclaró que las siete personas que revisaron el contenido se encontraban en Europa. De acuerdo con Meta, todas tenían fluidez en portugués, así como la pericia cultural y lingüística necesaria para revisar contenido brasileño.
Como consecuencia de que el Consejo eligiera este caso, Meta determinó que se había equivocado al decidir conservar el contenido en Facebook en reiteradas ocasiones. El 20 de enero de 2023, después de que el Consejo preseleccionara el caso, Meta eliminó el contenido, impuso una falta a la cuenta del creador del contenido y aplicó una limitación de funciones de 24 horas, por la que le impidió seguir creando contenido durante ese plazo. A pesar de la medida que tomó Meta, el comentario del público que el grupo de sociedad civil Ekō’s envió al Consejo y otros informes hicieron hincapié en que contenido similar permaneció en Facebook incluso después de que el Consejo presentara este caso a Meta (PC-11000).
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación de la persona que previamente reportó el contenido que se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
Cuando selecciona casos como este, en los que Meta posteriormente reconoce que cometió un error, el Consejo revisa la decisión original para entender mejor los parámetros de la política y el proceso de moderación de contenido que contribuyeron a la equivocación. Luego, el Consejo procura afrontar los problemas que identifica en las políticas o procesos subyacentes de Meta. Asimismo, pretende realizar recomendaciones para que Meta mejore la precisión de la aplicación de políticas y trate a los usuarios de forma justa en adelante.
4. Fuentes de autoridad y pautas
El análisis del Consejo en este caso se basó en las siguientes normas y precedentes:
I. Decisiones del Consejo asesor de contenido:
Entre las decisiones previas del Consejo asesor de contenido más relevantes, se encuentran las siguientes:
- "Suspensión de la cuenta del expresidente de los EE. UU. Trump" (decisión del caso 2021-001-FB-FBR): el Consejo destacó que, en contextos electorales, las responsabilidades de Meta en materia de derechos humanos exigen permitir la expresión política, pero, a la vez, evitar riesgos graves para otros derechos humanos.
- "Bot de Birmania" (decisión del caso 2021-007-FB-UA): el Consejo hizo hincapié en la importancia de proteger el discurso político en épocas de crisis política.
- "Consejo de comunicaciones de Tigray" (decisión del caso 2022-006-FB-MR): el Consejo remarcó que Meta tiene la responsabilidad de establecer un sistema transparente y fundamentado para moderar el contenido en zonas de conflicto, con el fin de mitigar el riesgo de que sus plataformas se usen para incitar a la violencia.
- "Dibujo animado de Knin" (decisión del caso 2022-001-FB-UA): el Consejo instó a Meta a brindar mayor claridad respecto del proceso de escalamiento del contenido a expertos en la materia.
II.Políticas de contenido de Meta:
Norma comunitaria sobre violencia e incitación
Conforme a la norma comunitaria sobre violencia e incitación, Meta no permite las "declaraciones de intención o apoyo, incitaciones, afirmaciones condicionales o expresiones de deseo de ingresar por la fuerza a lugares (incluidos, entre otros, lugares de culto, instituciones educativas, centros de votación o lugares usados para contar votos o administrar un proceso electoral) en los que hay señales temporales de un riesgo elevado de violencia o daño en la vida real". Las bases de la política correspondientes a esta norma comunitaria son "prevenir daños en la vida real que puedan estar relacionados con contenido" que se muestra en las plataformas de Meta. Al mismo tiempo, Meta reconoce que "las personas suelen expresar desprecio o desacuerdo mediante amenazas o apelaciones a la violencia sin intenciones serias". Por lo tanto, Meta elimina el contenido en los casos en los que considera que "existe riesgo real de daños físicos o amenazas directas a la seguridad pública". A la hora de evaluar la credibilidad de una amenaza, Meta también tiene en cuenta "el lenguaje y el contexto".
El análisis del Consejo también se basó en el compromiso de Meta con la "expresión", que la empresa describe como "primordial", y en el valor de "seguridad".
III. Responsabilidades de Meta con los derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP.
El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:
- Derecho a la libertad de opinión y expresión: artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); documento de investigación 1/2019 sobre las elecciones en la era digital (2019): informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019); Plan de Acción de Rabat, informe de la Alta Comisionada de la ONU para los Derechos Humanos: A/HRC/22/17/Add.4 (2013).
- Derecho a la reunión pacífica: artículo 21 del ICCPR; observación general n.º 37 del Comité de Derechos Humanos (2020).
- Derecho a la vida: artículo 6 del ICCPR.
- Derecho a participar en asuntos públicos y derecho a votar: artículo 25 del ICCPR.
5. Respuestas del usuario
En la apelación que presentó ante el Consejo, el usuario que reportó el contenido indicó lo siguiente: "Ya reporté este video y muchísimos otros a Facebook, y la respuesta fue siempre la misma, es decir, que no infringe las Normas comunitarias". Además, el usuario vinculó la capacidad latente del contenido para incitar a la violencia con las acciones realizadas por los brasileños que "no aceptan los resultados de las elecciones".
6. Respuestas de Meta
Cuando el Consejo le presentó este caso a Meta, la empresa determinó que su decisión original de conservar el contenido fue incorrecta. Meta le proporcionó al Consejo un análisis amplio del contexto social y político de Brasil correspondiente a los momentos previos y posteriores a las elecciones, así como durante estas, para justificar la (si bien tardía) eliminación del contenido de este caso. Más tarde, le facilitó al Consejo los factores probables que "podrían haber contribuido" al error recurrente en la aplicación de políticas.
Meta le indicó su punto de vista de que "las múltiples referencias a 'asediar' lugares de alto riesgo en el texto y en el video no aumentan, de forma independiente, el grado de 'ingresar por la fuerza' conforme a la política [sobre violencia e incitación]". Sin embargo, "la combinación de la incitación a las personas a ir a Brasilia, asaltarla y asediar los tres poderes, con la imagen de fondo de la plaza de los Tres Poderes en llamas dejaba clara la intención de ingresar por la fuerza a estos lugares destacados".
De acuerdo con Meta, el contenido no cumplía los requisitos para obtener una concesión de interés periodístico, a pesar de que reconoció que sus plataformas son "lugares importantes para el discurso político, en especial, en torno a las elecciones". En este caso, el valor de interés público del contenido no superó el riesgo de daño dada la "incitación explícita a actos violentos" y el "riesgo acrecentado de daño en la vida real tras las elecciones presidenciales brasileñas y la asunción de Lula". Meta no encontró ningún indicio de que el contenido se haya compartido para condenar la incitación a la violencia o generar conciencia en torno a esto. La empresa sostiene que su decisión final de eliminar el contenido es coherente con sus valores y con las normas internacionales sobre derechos humanos.
A fin de afrontar las elecciones y otras situaciones de crisis, Meta implementó varias medidas para la evaluación y mitigación de los riesgos. Diferentes equipos están a cargo de ellas y las pueden aplicar tanto de forma simultánea como independiente. Cada una de ellas tiene "niveles" de intensidad, según la evaluación del riesgo respectivo:
- La política de integridad de priorización de países (o bien, sistema de clasificación de riesgo), que está a cargo del equipo de productos en Meta, proporciona un marco que permite priorizar a largo plazo las inversiones de los recursos en los productos. Si bien, según Meta, este proceso no sirve para afrontar crisis a corto plazo, sí evalúa todos los países dos veces por año para detectar riesgos o amenazas emergentes.
- Los centros de integridad de operaciones de productos (IPOC) reúnen a un equipo interfuncional de expertos en la materia provenientes de toda la empresa para "responder en tiempo real a tendencias y problemas potenciales". Los IPOC se establecen de forma rápida para evaluar una gran variedad de problemas, identificar riesgos y determinar el modo de afrontarlos en el contexto de una crisis o situación de alto riesgo. Los IPOC se llaman "centros de operaciones electorales" cuando se centran específicamente en elecciones.
- Los centros de operaciones electorales ofrecen "supervisión en tiempo real de asuntos electorales clave, como iniciativas para evitar que las personas voten, el aumento de spam, una posible interferencia extranjera o reportes de contenido que infringe las políticas [de Meta]", además de "supervisar la cobertura periodística y actividades relacionadas con las elecciones en otras redes sociales y medios de comunicación tradicionales". Los centros le proporcionan a Meta un "panorama completo y le permiten hacer un seguimiento del tipo de contenido que podría ser viral" para "acelerar" el tiempo de respuesta de la empresa ante estas amenazas. Parte de la preparación de un centro de operaciones electorales implica "una extensa planificación de escenarios para adelantarse a posibles amenazas (desde acosos hasta la supresión de votos) y desarrollar sistemas y procedimientos de antemano para responder de forma efectiva".
- Por último, el protocolo de la política de crisis es el marco que Meta adoptó para desarrollar respuestas temporales específicas a una política ante crisis emergentes. Meta desarrolló este protocolo en respuesta a una recomendación que el Consejo asesor de contenido le hizo en el caso "Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump". Conforme a este protocolo, Meta establece tres categorías de crisis, sobre la base de las cuales la empresa adopta un determinado conjunto de medidas para mitigar los riesgos. Por ejemplo, una crisis de categoría 1 se activa como resultado de "un aumento en la actividad militar o de las fuerzas del orden" o una "elección de alto riesgo planificada o un acontecimiento álgido".
El centro de operaciones electorales que estuvo a cargo de las elecciones generales brasileñas de 2022 funcionó en varios momentos entre septiembre y noviembre de 2022, entre otros, durante la primera y segunda vueltas de las elecciones. Sin embargo, no había ningún centro de operaciones electorales (o IPOC) en funcionamiento en el momento en que se publicó el contenido el 3 de enero de 2023. Meta designó los "disturbios posteriores a las elecciones" como una crisis conforme al protocolo de la política de crisis para poder evaluar el mejor modo de mitigar los riesgos relacionados con el contenido.
En respuesta a una pregunta del Consejo en relación con las tendencias digitales en las plataformas de Meta antes y después de las elecciones brasileñas, y durante estas, la empresa afirmó que, como parte de la "preparación para las elecciones y el trabajo de respuesta, un grupo de equipos identificó tendencias de contenido relacionadas con las elecciones y las incorporó a su estrategia de mitigación de riesgos". Estas tendencias incluían: "(i) riesgos asociados con la incitación a la violencia o la difusión de amenazas de actos violentos; (ii) información errónea; y (iii) integridad empresarial, que incluye los riesgos asociados con el potencial uso indebido de la publicidad con contenido dañino […] o intentos de llevar a cabo campañas en formas que manipulan o corrompen el debate público". Meta indicó que "los resultados, entre otros factores, sirvieron para fundamentar numerosas mitigaciones relacionadas con las políticas y los productos". No obstante, Meta no cuenta con "datos de prevalencia" sobre afirmaciones específicas (p. ej., sobre fraude electoral, incitaciones a ir a Brasilia u ocupar por la fuerza edificios gubernamentales federales, reclamos de una intervención militar), ya que, en general, los sistemas de aplicación de políticas de la empresa "están diseñados para realizar supervisiones y un seguimiento sobre la base de las políticas que se infringen".
El Consejo le hizo 15 preguntas a Meta por escrito, y cinco de ellas se las hizo en una etapa de seguimiento oral acerca de cómo funcionan los centros de operaciones electorales. Las preguntas estuvieron relacionadas con los siguientes temas: recursos normativos disponibles para afrontar el comportamiento coordinado en las plataformas de Meta; riesgos identificados antes de las elecciones brasileñas de 2022; relación entre el centro de operaciones electorales correspondiente a las elecciones de Brasil y el protocolo de la política de crisis; de qué modo Meta delimita las organizaciones políticas legítimas para distinguirlas de las acciones coordinadas dañinas; tendencias digitales en las plataformas de Meta en Brasil antes y después de las elecciones, y durante estas; y competencias lingüísticas de los moderadores de contenido que revisaron el contenido del caso.
Meta respondió 13 preguntas. Meta no respondió dos preguntas: una vinculada a la relación que existe entre la publicidad política y la información errónea, y otra relacionada con la cantidad de eliminaciones de páginas y cuentas mientras el centro de operaciones electorales correspondiente a las elecciones brasileñas de 2022 estuvo en funcionamiento. Meta también le informó al Consejo que la empresa no tenía más datos generales sobre la moderación de contenido en el contexto de las elecciones brasileñas de 2022 disponibles inmediatamente para compartir con el Consejo, más allá del número de eliminaciones de contenido que ya se había compartido de forma pública. Además, Meta explicó que la empresa no evalúa su rendimiento en el contexto de elecciones en comparación con un grupo dado de métricas de éxito y puntos de referencia. Meta planteó la necesidad de priorizar los recursos a la hora de responder las preguntas del Consejo y dijo que proporcionar los datos solicitados en el plazo necesario para tomar una decisión respecto del caso no sería posible.
7. Comentarios del público
El Consejo asesor de contenido recibió 18 comentarios del público relacionados con este caso. Once de los comentarios procedían de Latinoamérica y el Caribe, tres de los Estados Unidos y Canadá, dos de Oriente Medio y África septentrional, uno de Asia-Pacífico y Oceanía, y uno de Asia central y meridional. Además, en febrero de 2023, el Consejo organizó una mesa redonda con partes interesadas de Brasil y Latinoamérica acerca del tema de "la moderación de contenido y las transiciones políticas".
Los comentarios enviados se referían a los siguientes temas: acumulación de afirmaciones maliciosas sobre fraude electoral y reclamos de un golpe militar en las plataformas de medios sociales antes y después de las elecciones brasileñas de 2022 y durante estas; información errónea relacionada con las elecciones; iniciativas de integridad de las elecciones de Meta; responsabilidad de Meta de proteger los derechos de los usuarios en el contexto de una transición del poder democrática; relación entre el negacionismo electoral y la violencia política; y la importancia de la familiaridad de los revisores de contenido con el contexto político local.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo examinó si este contenido debía eliminarse a la luz de las políticas de contenido, las responsabilidades con los derechos humanos y los valores de Meta. El Consejo seleccionó este caso porque le permite evaluar de qué modo Meta distingue las organizaciones pacíficas en sus plataformas de la incitación o coordinación de actos violentos, en especial, en el contexto de una transición del poder. Asimismo, el caso le permite al Consejo examinar las iniciativas de integridad de las elecciones de Meta de forma más general, y en Brasil de forma más específica, si se tiene en cuenta que los períodos posteriores a las elecciones son momentos cruciales tanto para impugnar la integridad de unas elecciones como para garantizar que se respeten los resultados electorales legítimos. Por lo tanto, el Consejo determinó que las iniciativas de integridad de las elecciones de Meta deberían abarcar el proceso electoral en sí mismo y el período posterior a las elecciones, ya que en este último también puede haber instancias de manipulación, información errónea relacionada con las elecciones y amenazas de actos violentos. El caso pertenece a la prioridad estratégica "Elecciones y los espacios cívicos" del Consejo.
8.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
Violencia e incitación
El Consejo determinó que el contenido de este caso infringe la norma comunitaria sobre violencia e incitación que prohíbe el contenido que incita a ingresar por la fuerza a ciertos lugares de alto riesgo. El Consejo precisó que, si bien el valor de "expresión" de Meta es particularmente relevante en los procesos electorales, incluso en el período posterior a las elecciones, en este caso, eliminar el contenido es necesario para propiciar el valor de "seguridad" de la empresa.
Para infringir la parte de la política que prohíbe las incitaciones a ingresar por la fuerza a lugares de alto riesgo, se necesitan dos designaciones de "alto riesgo". Primero, el lugar debe considerarse "de alto riesgo" y, segundo, debe estar situado en una zona o región que se haya designado específicamente como lugar de alto riesgo temporal. Las instrucciones específicas que Meta proporciona a los revisores de contenido son "eliminar las incitaciones, declaraciones de intención o apoyo, y expresiones de deseo de ingresar por la fuerza a lugares de alto riesgo en un lugar de alto riesgo temporal".
Según Meta, un "lugar de alto riesgo" es un "lugar (permanente o temporal) que se considera de alto riesgo debido a la probabilidad de ser blanco de actos violentos". Algunos de los lugares de alto riesgo permanentes son "lugares de trabajo o residencia de personas de alto riesgo o sus familiares (por ejemplo, oficina central de una agencia de noticias, centros médicos, laboratorios, comisarías, oficinas gubernamentales, etc.); instalaciones que se usan durante elecciones locales, regionales y nacionales como centro de registro de votantes, lugar de votación, sitio de recuento de votos (por ejemplo, la biblioteca local, un edificio gubernamental, un centro comunitario o cívico, etc.); o sitio empleado en la administración de una elección". De acuerdo con Meta, el Congreso, el Supremo Tribunal y las oficinas presidenciales de Brasil son "lugares de alto riesgo" permanentes en virtud de que allí trabajan o residen personas de alto riesgo o sus familiares.
La designación adicional como "lugar de alto riesgo temporal" de la zona o región más amplia abarca cualquier "lugar temporalmente designado [por Meta como tal] durante un período determinado". La designación de un lugar como lugar de alto riesgo temporal se basa en varios factores, por ejemplo, "si ocurrieron actos de violencia de alta gravedad en una manifestación en el lugar en los últimos siete días"; "evidencia de un riesgo acrecentado de violencia asociado a disturbios civiles o una decisión judicial contenciosa en el lugar"; "una evaluación de parte de las fuerzas del orden, informes de seguridad internos o un socio de confianza donde se estipule que es probable que ocurran actos violentos inminentes en el lugar"; "evidencia de una manifestación planificada o activa en el lugar o una manifestación planificada o activa en el lugar, cuando el organizador haya incitado el uso o la portación de armas en el lugar de la manifestación"; y "una evaluación llevada a cabo por los equipos internos en la que se determine que las preocupaciones relacionadas con la seguridad superan el impacto potencial de la expresión de defensa propia o autodeterminación". Una vez que se designa un lugar de alto riesgo temporal, la designación se comparte con los equipos internos de Meta. Si bien tales designaciones tienen vigencia durante un tiempo limitado, la empresa ocasionalmente otorga extensiones. De acuerdo con Meta, una designación de lugar de alto riesgo temporal conlleva la revisión proactiva del contenido "antes de que el usuario [lo] reporte".
En las elecciones de 2022, Meta designó todo Brasil lugar de alto riesgo temporal. Inicialmente, la designación se concretó el 1 de septiembre de 2022 y se basó en una evaluación de Meta en la que detectó un riesgo acrecentado de violencia en relación con los disturbios (civiles y asociados a las elecciones) en curso. La designación se extendió para cubrir las elecciones de octubre de 2022 y el período posterior, hasta el 22 de febrero de 2023. La designación estaba en vigencia en el momento en que se publicó el contenido de este caso.
De acuerdo con Meta, ambas designaciones deben estar presentes para que cierto contenido infrinja la política, que fue el caso de la publicación que está en análisis. Según la empresa, el doble requisito permite asegurar que no se supriman las convocatorias a manifestaciones de forma general y que solo se elimine el contenido propenso a generar violencia.
Dado todo lo anterior, el Consejo juzgó que las decisiones iniciales de Meta de que el contenido debía permanecer en la plataforma durante un tiempo de riesgo acrecentado de violencia política constituyen una desviación evidente respecto de su propia norma, ya que dicho contenido suponía una incitación inequívoca a ingresar por la fuerza a edificios gubernamentales situados en la plaza de los Tres Poderes de Brasilia, que son "lugares de alto riesgo" ubicados en un "lugar de alto riesgo temporal", Brasil.
II. Aplicación de políticas
De acuerdo con Meta, siete moderadores que contaban con la pericia lingüística y cultural necesaria revisaron el contenido. Meta no les indica a los revisores de la etapa de escalamiento que registren los motivos por los que toman sus decisiones. Cuando el Consejo seleccionó este caso, los equipos internos de Meta llevaron a cabo un análisis en el que concluyeron que tres factores probables "podrían haber contribuido" al error recurrente en la aplicación de políticas: (1) los revisores podrían haber interpretado de forma incorrecta la intención del usuario (incitación a actuar) posiblemente debido a una falta de puntuación que generó la malinterpretación del contenido como comentario neutral sobre el acontecimiento; o (2) los revisores tomaron una decisión equivocada, a pesar de que las pautas indicadas eran correctas, debido a que diversas fuentes realizaron varias modificaciones en la forma de manipular el contenido relacionado con acontecimientos de alto riesgo; o (3) los revisores podrían no haber visto la infracción en el video.
Los factores 1 y 3 sugieren que los moderadores no revisaron este contenido con cuidado ni vieron el video por completo, ya que la infracción potencial de las políticas de Meta que incluía era evidente. Sin embargo, Meta no proporcionó ninguna explicación en lo que respecta a los motivos por los que el contenido no se escaló a expertos en políticas o en la materia para someterse a otra instancia de análisis. El contenido no se escaló a pesar del hecho de que provenía de un país que, en el momento en que se publicó y se reportó el contenido, había sido designado "lugar de alto riesgo temporal" en referencia a una parte de la política que solo se activa cuando se implementa esta designación. Además, el contenido tampoco se escaló a pesar del contexto general en internet y en la vida real de Brasil (consulta la sección 2).
Meta ya le informó al Consejo que los revisores de contenido no siempre pueden ver los videos en su totalidad. No obstante, en situaciones de riesgo acrecentado de violencia, cuando se han activado recursos normativos específicos, el Consejo esperaría que se les pida a los revisores de contenido que vean los videos por completo, así como que escalen el contenido potencialmente infractor.
En relación con el factor 2, si bien Meta indicó que informa a los revisores de la etapa de escalamiento acerca de las designaciones de lugares de alto riesgo temporal, la empresa reconoció que existen posibles deficiencias en la comunicación de esta y otras medidas relacionadas con la mitigación del riesgo específicas de los procesos electorales. La comunicación de este tipo de información les permite a los revisores de contenido detectar, eliminar o escalar contenido problemático, como el video en cuestión. El hecho de que diferentes medidas de evaluación y mitigación estuvieran implementadas en Brasil en ese momento indica que probablemente deban articularse de mejor forma y contar con cadenas jerárquicas más claras para que las iniciativas de integridad de las elecciones de la empresa sean más efectivas.
A pesar de la decisión final de Meta de eliminar el contenido, al Consejo le preocupa mucho el hecho de que, pese a los disturbios civiles presentes en Brasil en el momento en que se publicó el contenido y la vasta proliferación de contenido similar en internet las semanas y meses anteriores a los disturbios del 8 de enero, los moderadores de Meta hayan evaluado reiteradamente este contenido como no infractor y hayan omitido escalarlo a otras instancias de revisión no obstante los indicios contextuales que incluía. Estas preocupaciones se ven agravadas por el hecho de que, cuando el Consejo le pidió a Meta información sobre afirmaciones relacionadas específicamente con las elecciones, observadas en sus plataformas antes y después de las elecciones brasileñas, y durante estas, la empresa explicó que no cuenta con datos sobre tal prevalencia (consulta la sección 6). El contenido de este caso se eliminó finalmente más de dos semanas después, cuando el acontecimiento infractor al que se incitaba ya había ocurrido y solo después de que el Consejo presentara el caso a Meta.
Meta reconoció el riesgo acrecentado de violencia presente en Brasil: primero, al adoptar varias medidas para la evaluación del riesgo antes y después de que se publicara el contenido, así como durante su publicación, y, segundo, directamente ante el Consejo, cuando la empresa decidió, en última instancia, eliminar el contenido. Sin embargo, los revisores de la empresa reiteradamente se equivocaron al aplicar sus Normas comunitarias de forma correcta, en particular, la parte específica de la norma comunitaria sobre violencia e incitación que tiene validez ante la designación de un lugar de alto riesgo temporal. El hecho de que el contenido no se haya escalado antes de que el Consejo lo seleccionara (pese a la claridad de la posible infracción) y de que había contenido similar circulando en Facebook en ese momento (consulta las secciones 2 y 8.2) indica que los canales de escalamiento probablemente no sean lo suficientemente claros y efectivos (consulta el caso Dibujo animado de Knin). También demuestra la necesidad de que Meta mejore sus protecciones en torno a las elecciones. Como el Consejo señaló en decisiones anteriores, es indispensable que los revisores de la etapa de escalamiento cuenten con el conocimiento lingüístico y contextual adecuado, además de las herramientas y los canales necesarios para escalar el contenido potencialmente infractor.
III. Transparencia
El Consejo reconoce que Meta implementó iniciativas importantes para proteger la integridad de las elecciones brasileñas de 2022. En agosto de 2022, cuando comenzó formalmente el período de las campañas, Meta anunció de forma pública sus iniciativas relacionadas con las elecciones en el país. La empresa trabajó con el Tribunal Superior Electoral de Brasil para agregar una etiqueta a las publicaciones sobre las elecciones en Facebook e Instagram, "con la que se redirigiera a las personas a información confiable en el sitio web de la Justicia Electoral". De acuerdo con Meta, como resultado, las visitas al sitio web "aumentaron diez veces". La colaboración también le permitió al Tribunal Superior Electoral reportar contenido que podría ser infractor directamente ante Meta. Meta organizó sesiones de capacitación para los funcionarios electorales en todo Brasil, con el fin de explicarles las Normas comunitarias de la empresa y el modo en que se afronta la información errónea en Facebook e Instagram. Meta también prohibió la publicidad pagada "que cuestionara la legitimidad de las próximas elecciones". Además, la empresa implementó un límite de reenvío en WhatsApp para que los mensajes solo pudieran reenviarse a un único grupo de WhatsApp a la vez. Por último, Meta informó la cantidad de contenido eliminado conforme a varias normas comunitarias, como las políticas sobre violencia e incitación, lenguaje que incita al odio y bullying y acoso, además del número total de clics en las etiquetas de las elecciones que redirigían a los usuarios a información fidedigna sobre las elecciones brasileñas.
No obstante, cuando el Consejo le preguntó sobre sus iniciativas de integridad de las elecciones en el contexto de las elecciones brasileñas de 2022, Meta indicó que la empresa no usa ninguna métrica en particular para medir el éxito de sus iniciativas de integridad de las elecciones, más allá de los datos que informa sobre la eliminación de contenido, las visualizaciones y el número de clics en las etiquetas de las elecciones. El Consejo también destacó que, a partir de lo que Meta divulga en su Centro de transparencia y los intercambios con el Consejo, no queda completamente claro cómo funcionan las diferentes medidas y protocolos para la evaluación del riesgo de la empresa (consulta la sección 6), de forma independiente o simultánea. Meta debería aclarar los puntos de contacto entre estos distintos protocolos, además de explicar mejor cómo se diferencian entre sí y de qué modo exactamente la aplicación de las políticas de contenido se ve afectada por ellos.
En varios comentarios del público (Ekō [PC-11000], Dangerous Speech Project [PC-11010], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], InternetLab [PC-11019] y Coalizão Direitos na Rede [PC-11020]) que recibió el Consejo, se indicaba que las iniciativas de la empresa para proteger las elecciones en Brasil no eran suficientes. Si bien el Consejo reconoce los desafíos inherentes a la moderación de contenido a gran escala, la responsabilidad de Meta de prevenir, mitigar y afrontar las consecuencias adversas en los derechos humanos se ve realzada en contextos electorales y otros de alto riesgo, y exige que la empresa establezca protecciones efectivas contra ellas. El error en la aplicación de las políticas cometido en este caso no parece ser un incidente aislado. De acuerdo con Ekō (PC-11000), contenido similar permaneció en Facebook incluso después de los disturbios del 8 de enero.
Se necesita más transparencia para evaluar si las medidas de Meta son adecuadas y suficientes en todos los contextos electorales. La falta de datos disponibles para que el Consejo pudiera revisar socavó su capacidad para evaluar de forma adecuada si los errores en la aplicación de políticas cometidos en este caso, y las preocupaciones planteadas por diferentes partes interesadas, son síntomas de un problema sistémico en las políticas y las prácticas de aplicación de políticas de la empresa. También comprometió la capacidad del Consejo para elaborar recomendaciones más específicas para Meta respecto de cómo mejorar aún más sus iniciativas de integridad de las elecciones en todo el mundo.
Los datos que Meta divulga en la actualidad, predominantemente sobre la eliminación de contenido, no ofrecen un panorama completo de los resultados de las medidas de integridad de las elecciones que la empresa implementa en un mercado dado. Por ejemplo, no incluyen la precisión con que se aplican las políticas importantes en contextos electorales, como la norma comunitaria sobre violencia e incitación, ni el porcentaje de anuncios políticos inicialmente aprobados por Meta, pero que luego se determinó que infringían sus políticas. Realizar una auditoría estadística con métricas como estas le permitiría a Meta revertir errores, además de hacer un seguimiento de la efectividad de sus medidas en contextos en que su adecuación es de suma trascendencia.
Sin este tipo de información, ni el Consejo ni el público pueden evaluar la efectividad de las iniciativas de integridad de las elecciones de Meta de forma más general. Esto es importante si se considera que muchos incidentes de violencia política suelen generarse a partir de disputas relacionadas con las elecciones, o verse intensificados por estas, en situaciones en que contenido dañino permanece en internet antes de que ocurran actos violentos en la vida real o durante estos (consulta los casos "Bot de Birmania" [2021-007-FB-UA], "Consejo de comunicaciones de Tigray" [2022-006-FB-MR] y "Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump" [2021-001-FB-FBR]).
En consecuencia, el Consejo resolvió que Meta debe elaborar un marco que le permita a la empresa evaluar sus iniciativas de integridad de las elecciones, así como informar de manera pública sobre el tema. La finalidad es proporcionarle a la empresa datos relevantes para mejorar su sistema de moderación de contenido de forma integral y decidir el mejor modo de asignar sus recursos en contextos electorales. También debería permitirle a Meta aprovechar de forma efectiva el conocimiento local e identificar y evaluar campañas coordinadas en internet y en la vida real que pretenden derrocar procesos democráticos. Asimismo, este marco debería ser útil para que Meta establezca canales de comentarios permanentes y determine las medidas que deben adoptarse cuando la violencia política persiste tras la conclusión formal de los procesos electorales. Por último, el Consejo señaló que, como se explicó anteriormente, la articulación entre las diferentes medidas y protocolos de evaluación del riesgo de Meta, como los IPOC, la política de integridad de priorización de países y el protocolo de la política de crisis (consulta la sección 6), en contextos relacionados con elecciones debe revisarse y explicarse de mejor forma al público.
8.2 Cumplimiento de las responsabilidades de Meta con los derechos humanos
Libertad de expresión (artículo 19 del ICCPR)
El derecho a la libertad de opinión y expresión es un "pilar fundamental de las sociedades democráticas, así como un aval para los procesos electorales libres y justos, y los discursos públicos y políticos significativos y representativos" (Relator Especial de la ONU sobre la libertad de expresión, documento de investigación 1/2019, página 2 de la versión en inglés). El artículo 19 del ICCPR prevé una amplia protección de la expresión, en especial, para el discurso político. Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, legitimidad y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad conforme a la legislación internacional de derechos humanos requiere que cualquier regla que limite la expresión sea clara y de acceso público (observación general n.º 34, párrafo 25). En referencia a las reglas relacionadas con las empresas de medios sociales, la Relatora Especial de la ONU sobre la libertad de expresión dijo que deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
El Consejo determinó que, en referencia a los hechos de este caso, la disposición de Meta que prohíbe el contenido que incita a ingresar por la fuerza a ciertos lugares de alto riesgo y las condiciones exactas en las que la prohibición tiene validez se explican con la misma claridad. Tanto el usuario como los revisores de contenido podían comprender con facilidad las infracciones cometidas en el contenido de este caso, en especial, teniendo en cuenta el contexto de disturbios civiles de Brasil. Por lo tanto, el Consejo considera que se cumple el requisito de legalidad.
II. Fin legítimo
Toda restricción que se aplique a la libertad de expresión (artículo 19 del ICCPR) debe tener un fin legítimo. Por medio de la política sobre violencia e incitación, se procura "prevenir daños en la vida real" eliminando el contenido que representa un "riesgo real de daños físicos o amenazas directas a la seguridad pública". Esta política atiende el fin legítimo de proteger los derechos de los demás, como el derecho a la vida (artículo 6 del ICCPR), así como el orden público y la seguridad nacional (artículo 19, párrafo 3, del ICCPR). En contextos electorales, esta política también puede procurar el fin legítimo de proteger el derecho de los demás a votar y a participar en asuntos públicos (artículo 25 del ICCPR).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora, deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado [y] deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafos 33 y 34). Como en casos anteriores que involucraban incitación a la violencia, el Consejo determinó que los seis factores descriptos en el Plan de Acción de Rabat de la ONU son pertinentes para determinar la necesidad y proporcionalidad de la restricción (consulta, por ejemplo: caso "Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump").
El Consejo reconoce que, en muchos entornos políticos, cuestionar la integridad de las elecciones o del sistema electoral es un ejercicio legítimo del derecho de las personas a la libertad de expresión y manifestación, incluso si hay incidentes aislados de violencia. En virtud de su mensaje político, este tipo de afirmaciones cuenta con un nivel elevado de protección (observación general n.º 37, párrafos 19 y 32). Sin embargo, el Consejo destacó que este caso es diferente. Existe un límite fundamental que diferencia el discurso político protegido de la incitación a la violencia para anular los resultados de una elección popular legítima. Sobre la base de los factores descriptos en el Plan de Acción de Rabat, sin duda, se alcanzó el umbral que habilita la restricción del discurso en este caso. El Consejo señaló que varios elementos del contenido de este caso son relevantes para su análisis: las incitaciones a "asediar" el Congreso de Brasil como "última alternativa" y "asaltar" los "tres poderes"; el video con una incitación de parte de un destacado general brasileño a "salir a las calles" e "ir al Congreso Nacional [… y al] Supremo Tribunal"; la imagen de los edificios gubernamentales federales en llamas en el fondo; y la solicitud del "código fuente". Todos ellos constituyen, a la luz del contexto más amplio brasileño en el que partidarios de Bolsonaro refutaban los resultados de las elecciones y reclamaban un golpe militar, una incitación inequívoca a ocupar edificios gubernamentales y tomar el control de ellos. La intención del hablante, el contenido del discurso y su alcance, así como la probabilidad de que ocurrieran daños inminentes en el contexto político de Brasil de ese momento, justificaban la eliminación de la publicación.
El contenido se publicó en un contexto de mayor riesgo de violencia política, con reclamos generalizados y constantes de que las Fuerzas Armadas anularan los resultados de las elecciones. Al mismo tiempo, se usaban eslóganes codificados para promover manifestaciones específicamente centradas en los edificios gubernamentales de Brasilia (consulta la sección 2). En este aspecto, en la información que el Consejo recibió a través de muchos comentarios del público, incluidos los de ITS Rio – Modera Lab (PC-11016), Coalizão Direitos na Rede (PC-11020), InternetLab (PC-11019) y Ekō (PC-11000), que respaldaron la investigación encargada por el Consejo, se observó que contenido similar circuló en gran medida en los medios sociales durante los días previos a los acontecimientos del 8 de enero. También se hacía hincapié en que era inminente que los partidarios de Bolsonaro asaltaran los edificios de la plaza de los Tres Poderes y presionaran a los militares para que intervinieran, incluso a través de un golpe militar.
Teniendo en cuenta todo lo anterior, el Consejo determinó que la eliminación del contenido es coherente con sus responsabilidades con los derechos humanos. La eliminación del contenido es una respuesta necesaria y proporcionada para proteger el derecho a la vida de las personas, incluidos los funcionarios públicos, y el orden público de Brasil. La eliminación de este contenido y contenido similar también fue necesaria y proporcionada para proteger el derecho de los brasileños a votar y a participar en asuntos públicos, en un contexto en el que había intentos de socavar una transición democrática del poder.
La persistente falla en los sistemas de revisión de Meta para identificar de forma adecuada la infracción en el video o escalarlo para una instancia adicional de revisión y eliminar el contenido del caso supone un problema grave. El Consejo cree que Meta estará en una mejor posición para afrontarlo si la empresa implementa las recomendaciones que se enumeran más abajo. Si bien Meta tomó medidas positivas para mejorar sus iniciativas de integridad de las elecciones en Brasil, no hizo lo suficiente para afrontar el posible uso indebido de sus plataformas mediante campañas coordinadas del tipo que se vieron en Brasil. En este caso, el contenido que se conservó y se compartió en gran medida parecía ser característico del tipo de información errónea e incitación que se reportó que circulaba en las plataformas de Meta en Brasil en ese momento. Asimismo, fundamentó las afirmaciones de que las cuentas influyentes con un poder de movilización significativo de las plataformas de Meta estuvieron involucradas en la promoción de la violencia. Como se declaró en comentarios del público que recibió el Consejo (consulta los siguientes: Instituto Vero [PC-11015], ModeraLab [PC-11016], InternetLab [PC-11019], Instituto de Referência em Internet e Sociedade [PC-11021]), la revisión y potencial eliminación de contenido individual de las plataformas de Meta no es suficiente ni completamente efectiva cuando dicho contenido es parte de una acción organizada y coordinada que pretende derrocar procesos democráticos. Las iniciativas de integridad de las elecciones y los protocolos de crisis deben afrontar estas tendencias digitales más amplias.
8.3 Contenido idéntico con contexto paralelo
El Consejo manifestó preocupación por la proliferación de contenido similar al que está en análisis durante los meses anteriores a los disturbios del 8 de enero en Brasil. Dado que Meta se equivocó al identificar este contenido como infractor en reiteradas ocasiones, el Consejo prestará especial atención a que la empresa aplique esta decisión a contenido idéntico con contexto similar que haya quedado en las plataformas de la empresa, excepto cuando se haya compartido para condenar el discurso del general y las incitaciones a asaltar los edificios de la plaza de los Tres Poderes de Brasilia, o para generar conciencia en torno a esto.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.
10. Recomendaciones
A. Aplicación de políticas
- Meta debería elaborar un marco que le permita evaluar las iniciativas de integridad de las elecciones de la empresa. Esto debería incluir crear y compartir métricas para evaluar el éxito de las iniciativas de integridad de las elecciones, por ejemplo, aquellas relacionadas con la aplicación de políticas de contenido de Meta y el enfoque de la empresa para tratar los anuncios. El Consejo considerará que se implementó esta recomendación cuando Meta haya elaborado este marco (incluida una descripción de las métricas y los objetivos de dichas métricas), lo haya divulgado en el Centro de transparencia de la empresa, haya comenzado a publicar informes específicos de cada país y difunda de forma pública todos los cambios realizados en sus iniciativas de integridad de las elecciones generales como resultado de esta evaluación.
B. Transparencia
- Meta debería aclarar en su Centro de transparencia que, además del protocolo de la política de crisis, la empresa implementa otros protocolos a fin de prevenir y afrontar el riesgo de daño potencial que surge en los contextos electorales u otros acontecimientos de alto riesgo. Además de nombrar y describir dichos protocolos, la empresa también debería describir su objetivo, los puntos de contacto entre estos distintos protocolos y las diferencias que existen entre ellos. El Consejo considerará que se implementó esta recomendación cuando Meta haya publicado la información en su Centro de transparencia.
* Nota procedimental:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asesoramiento de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas