Decisión de casos múltiples
Publicaciones que muestran la bandera de la época del apartheid en Sudáfrica
23 de abril de 2025
Luego de revisar dos publicaciones de Facebook que contenían imágenes de la bandera de Sudáfrica utilizada en el período comprendido entre 1928 y 1994, la mayoría del Consejo ratificó las decisiones de Meta de conservarlas. No es claro que estas dos publicaciones promuevan la exclusión o la segregación, ni pueden interpretarse como una incitación a cometer actos de violencia o discriminación.
2 casos incluidos en el paquete
FB-Y6N3YJK9
Caso sobre las en Facebook
FB-VFL889X3
Caso sobre las en Facebook
Resumen
Luego de revisar dos publicaciones de Facebook que contenían imágenes de la bandera de Sudáfrica utilizada en el período comprendido entre 1928 y 1994, la mayoría del Consejo ratificó las decisiones de Meta de conservarlas. Los miembros del Consejo reconocen el legado y las consecuencias a largo plazo del apartheid en Sudáfrica. Sin embargo, no es claro que estas dos publicaciones promuevan la exclusión o la segregación, ni pueden interpretarse como una incitación a cometer actos de violencia o discriminación. La deliberación en estos casos dio lugar a recomendaciones para mejorar el lenguaje contradictorio de la política de personas y organizaciones peligrosas.
Nota adicional: Las revisiones del 7 de enero de 2025 realizadas por Meta no cambiaron el resultado en estos casos, aunque el Consejo tuvo en cuenta las reglas vigentes al momento de la publicación y las actualizaciones posteriores durante la deliberación. En cuanto a los cambios más amplios en la política y su aplicación anunciados apresuradamente por Meta en enero, al Consejo le preocupa que Meta no haya compartido públicamente si antes realizó, o no, una debida diligencia en materia de derechos humanos conforme a sus compromisos en el marco de los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. Es fundamental que Meta garantice la identificación y prevención de cualquier impacto negativo sobre los derechos humanos en todo el mundo.
Información de los casos
La primera publicación de Facebook, realizada antes de las elecciones generales de Sudáfrica en mayo de 2024, muestra una foto de un soldado blanco que sostiene la antigua bandera del país, que se utilizaba durante la época del apartheid. La descripción insta a las personas a compartir la publicación si se "desempeñaron como miembros de las Fuerzas Armadas bajo esta bandera". La publicación tuvo más de 500.000 visualizaciones. Aunque fue reportada por tres usuarios, Meta determinó que el contenido no infringía sus reglas.
La segunda publicación, que también se realizó en Facebook, incluye fotos estándar de la época del apartheid, como la antigua bandera, niños blancos de pie junto a un hombre negro en una bicicleta de venta de helados, una playa pública solo para personas blancas y un arma de juguete. La descripción de la publicación indica que fue una época maravillosa, les pide a las personas que "lean entre líneas" e incluye emojis que guiñan el ojo y emojis que hacen el gesto de "OK". El contenido tuvo más de dos millones de visualizaciones y fue reportado por 184 usuarios, en su mayoría, por contener lenguaje que incita al odio. Los revisores humanos de Meta determinaron que la publicación no infringía las Normas comunitarias.
En ambos casos, los usuarios que reportaron el contenido a Meta luego apelaron la decisión ante el Consejo.
Conclusiones principales
La mayoría del Consejo determinó que ninguna de las publicaciones infringe la política de conducta que incita al odio, mientras que una minoría consideró que ambas publicaciones sí lo hacen.
La política no permite "ataques directos" en forma de "incitaciones a la exclusión o segregación, o apoyo de estas conductas" en función de una característica protegida. Según la mayoría, ninguna de las publicaciones promueve el restablecimiento del apartheid ni otras formas de exclusión racial. Aunque la publicación del soldado utiliza la bandera en un contexto positivo, no promueve la exclusión ni la segregación racial. En el caso de la publicación de la cuadrícula fotográfica, las imágenes combinadas con los emojis y el mensaje que insta a "leer entre líneas" son indicios de un mensaje racista, pero no cumplen con los requisitos necesarios para infringir esta política.
Una minoría no está de acuerdo y señala que la bandera constituye un símbolo directo e inequívoco del apartheid, que, al compartirse con referencias positivas o neutrales, puede interpretarse como una muestra de apoyo a la segregación racial. Por ejemplo, es evidente que la publicación de la cuadrícula fotográfica, que incluye imágenes de la vida segregada, mensajes y el emoji del gesto "OK" (que los supremacistas blancos de todo el mundo interpretan como una forma encubierta de lenguaje que incita al odio), apoya la exclusión racial.
El Consejo determinó por unanimidad que ambas publicaciones infringen la política de personas y organizaciones peligrosas, aunque la mayoría y una minoría no están de acuerdo respecto de los motivos. La empresa elimina contenido que glorifica, apoya o representa ideologías de odio, lo que incluye aquel relacionado con la supremacía y el separatismo blancos, así como "referencias poco claras" a estas ideologías. El Consejo coincide en que la bandera utilizada en el período comprendido entre 1928 y 1994 no puede interpretarse como algo ajeno al apartheid, una forma de ideología de los separatistas blancos. Para la mayoría, ambas publicaciones constituyen referencias poco claras al separatismo blanco, mientras que para la minoría glorifican explícitamente esta ideología.
Según la mayoría, no es necesario ni proporcionado eliminar el contenido porque la probabilidad de que se produzcan actos de violencia o discriminación inminentes a partir de estas publicaciones es baja. Prohibir esta clase de mensajes no hace que las ideas intolerantes desaparezcan, y podrían haberse aplicado otras herramientas de moderación de contenido menos intrusivas que la eliminación. Una minoría no está de acuerdo y destaca que la eliminación es necesaria para garantizar el respeto de los derechos a la igualdad y a la no discriminación de los sudafricanos no blancos. También señala los efectos disuasivos que la acumulación de esta clase de odio en las plataformas de Meta tiene sobre la libertad de expresión de las personas a quienes se dirige.
Todos los miembros del Consejo reconocen la presencia de lenguaje contradictorio en relación con lo que debe considerarse como "referencias" a ideologías de odio en virtud de la política de personas y organizaciones peligrosas. Durante la deliberación, hubo cuestionamientos respecto de por qué Meta no incluye al apartheid como una designación independiente. Algunos miembros del Consejo cuestionaron por qué la lista de Meta se centra en ideologías que podrían suponer riesgos en las regiones de la minoría global, pero no contempla la misma clase de ideologías de odio en las regiones de la mayoría global.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó las decisiones de Meta de conservar ambas publicaciones.
El Consejo le recomendó a Meta lo siguiente:
- En relación con las modificaciones del 7 de enero de 2025 realizadas en la política de conducta que incita al odio, Meta debe identificar la manera en que las actualizaciones de la política y su aplicación podrían afectar negativamente a las poblaciones de las regiones de la mayoría global. Debe adoptar medidas para prevenir o mitigar estos riesgos y controlar su eficacia. Por último, Meta debe informar al Consejo cada seis meses respecto del avance y proporcionar informes públicos a la mayor brevedad posible.
- Adoptar una explicación única, clara e integral sobre la manera en que sus prohibiciones y excepciones en virtud de la política de personas y organizaciones peligrosas se aplican a ideologías de odio designadas.
- Incluir al apartheid como una ideología de odio designada independiente en las reglas de la política de personas y organizaciones peligrosas.
- Proporcionar a sus revisores más ejemplos globales de actos prohibidos de glorificación, apoyo y representación de ideologías de odio, por ejemplo, cuando no se menciona la ideología en cuestión de forma directa.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Descripción y contexto del caso
Los casos tratan sobre dos publicaciones de Facebook que se compartieron en el período previo a las elecciones generales de Sudáfrica en mayo de 2024.
La primera publicación muestra una foto de un soldado blanco que sostiene la bandera de Sudáfrica que se utilizaba antes de 1994, es decir, durante la época del apartheid. La descripción en inglés insta a los usuarios a compartir el contenido si se "desempeñaron como miembros de las Fuerzas Armadas bajo esta bandera". La publicación tuvo unas 600.000 visualizaciones y se compartió unas 5.000 veces. Tres usuarios reportaron el contenido a Meta por considerarlo lenguaje que incita al odio y un acto de violencia. Sin embargo, como los revisores humanos de Meta determinaron que no infringía las normas, se mantuvo publicado. Uno de los usuarios que reportó el contenido luego apeló la decisión al Consejo.
La segunda publicación presenta una cuadrícula que contiene imágenes estándar tomadas durante la época del apartheid, por ejemplo: la antigua bandera del país; un adulto negro en una bicicleta de venta de helados junto a tres niños blancos de pie en lo que parece ser un vecindario solo de personas blancas; una playa pública solo para personas blancas con un parque de diversiones; un juego de mesa sudafricano; un paquete de dulces con forma de cigarrillos blancos; y un arma de juguete plateada. La descripción afirma que "aquella fue una época maravillosa" y le pide al público que "lea entre líneas", junto a emojis que guiñan el ojo y emojis del gesto "OK". Se visualizó aproximadamente dos millones de veces y se compartió unas 1.000 veces. Una semana después de su publicación, 184 usuarios ya habían reportado el contenido, en su mayoría, por contener lenguaje que incita al odio. Algunos de los reportes fueron evaluados por revisores humanos, quienes determinaron que el contenido no infringía las Normas comunitarias. El resto de los reportes se procesaron mediante una combinación de sistemas automatizados y decisiones anteriores tomadas por revisores humanos. Al igual que sucedió con la publicación del soldado, Meta determinó que el contenido no infringía las normas y lo conservó en la plataforma. Uno de los usuarios que reportó el contenido luego apeló la decisión al Consejo.
El 7 de enero de 2025, Meta anunció revisiones a su política de lenguaje que incita al odio y cambió su nombre a política de conducta que incida al odio. Estos cambios, en la medida en que sean relevantes para estos casos, se describirán en la sección 3 y se analizarán en la sección 5. El Consejo observa que se puede acceder al contenido en las plataformas de Meta de forma continua y que las políticas actualizadas se aplican a todo el contenido presente en la plataforma, sin importar su fecha de publicación. Por lo tanto, el Consejo evalúa la aplicación de las políticas existentes en el momento de la publicación y, cuando corresponde, según revisiones posteriores (consulta también el enfoque que se adoptó en el caso Negación del Holocausto).
El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó:
Entre 1948 y 1994, Sudáfrica estuvo bajo un régimen sancionado por el Estado conocido como apartheid que implicaba la segregación racial de sudafricanos blancos y no blancos, aunque ya existían en el país leyes discriminatorias antes de que se adoptara formalmente este régimen. En esta época, Sudáfrica utilizaba una bandera con los colores naranja, blanco y azul. En 1994, luego del fin del apartheid, Sudáfrica adoptó la bandera de seis colores que utiliza en la actualidad. A pesar del fin del apartheid, las desigualdades socioeconómicas siguen afectando particularmente a la población negra del país, lo que contribuye al surgimiento de tensiones raciales en el ámbito político y del debate público.
En 2018, la Fundación Nelson Mandela tomó acciones legales en Sudáfrica con el objeto de prohibir la "exhibición innecesaria" de la bandera vigente durante la época del apartheid después de su uso en protestas el año anterior. En la acción se alegaba que la exhibición de la bandera constituía "una forma de lenguaje que incita al odio y un acto de discriminación y acoso" y que reivindicaba las atrocidades cometidas por el sistema. En 2019, el Tribunal de Igualdad de Sudáfrica sostuvo que la exhibición innecesaria de la bandera constituía una forma de lenguaje que incita al odio y un acto de discriminación racial que podían derivar en acciones penales en virtud de la legislación nacional. En la sentencia, el tribunal aclaró que la exhibición de la bandera no es ilegal si se utiliza con fines artísticos, académicos, periodísticos o de interés público. El Tribunal Supremo de Apelaciones (SCA) ratificó la decisión en abril de 2023.
El 29 de mayo de 2024, Sudáfrica celebró elecciones para la Asamblea Nacional. El Congreso Nacional Africano (ANC), el partido político dirigido por Nelson Mandela tras el fin del apartheid, perdió la mayoría parlamentaria. Sin embargo, el líder del partido en ejercicio, Cyril Ramaphosa, mantuvo la presidencia mediante la formación de un gobierno de coalición con partidos de la oposición.
2. Respuestas de los usuarios
Los autores de las publicaciones recibieron una notificación acerca de la revisión del Consejo y tuvieron la oportunidad de presentar una declaración. No se obtuvo respuesta alguna.
En la declaración que presentó al Consejo, el usuario que reportó la publicación del soldado manifestó que la antigua bandera de Sudáfrica es equivalente a la bandera de la Alemania nazi. Sostuvo que "exhibirla descaradamente" incita a la violencia porque el país todavía sufre las consecuencias del apartheid como crimen de lesa humanidad. También dijo que compartir esas imágenes durante un período electoral puede fomentar el odio racial y poner en riesgo la vida de las personas. De forma similar, el usuario que reportó la publicación de la cuadrícula de fotos explicó que el uso de la bandera es ilegal y, si se la analiza en su totalidad, insinúa que la época del apartheid fue "mejor" para los sudafricanos. Enfatizó el hecho de que la antigua bandera representa la opresión y resulta "ofensiva" y "dañina" para la mayoría de los sudafricanos.
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
Política de conducta que incita al odio (anteriormente, lenguaje que incita al odio)
La política de conducta que incita al odio de Meta establece que "las personas se expresan y se conectan entre sí con mayor libertad cuando no se sienten atacadas por quiénes son". Meta define la "conducta que incita al odio" de la misma manera en que antes definía el "lenguaje que incita al odio", como un "ataque directo a las personas" en función de características protegidas como raza, etnia y nacionalidad. Como consecuencia de la recomendación del Consejo para aclarar su enfoque en el caso Dibujo animado de Knin, en la introducción de las Normas comunitarias, Meta establece que la empresa puede eliminar contenido en el que se utilice "lenguaje ambiguo o implícito" cuando el contexto adicional le permite entender razonablemente que el contenido infringe las Normas comunitarias.
En virtud del nivel 2 de la política de conducta que incita al odio, se prohíben las "incitaciones a la exclusión o segregación, o apoyo de estas conductas, o expresiones de intención de exclusión o segregación", ya sea en forma escrita o visual, por considerarse una forma de ataque directo. Meta prohíbe los siguientes tipos de incitaciones a la exclusión o el apoyo de estas conductas: (i) exclusión general, es decir, incitar a la exclusión o segregación generalizada, como "¡No admitimos X!"; (ii) exclusión política, es decir, negar el derecho a la participación política o abogar por el encarcelamiento de una persona o la negación de derechos políticos; (iii) exclusión económica, es decir, negar el acceso a prestaciones económicas y limitar la participación en el mercado laboral; y (iv) exclusión social, es decir, denegar el acceso a espacios (físicos y online) y servicios sociales. Antes del 7 de enero, la prohibición relativa a la "exclusión general" se denominaba "exclusión explícita".
Personas y organizaciones peligrosas
La política de personas y organizaciones peligrosas de Meta busca "evitar y prevenir daños en la vida real".
En las bases de la política, Meta indica que elimina contenido que glorifique, apoye o represente "ideologías de odio".
Meta explica que designa ideologías prohibidas, entre las que se incluyen "nazismo, supremacía blanca, nacionalismo blanco [y] separatismo blanco" porque están "inherentemente vinculadas a la violencia" e intentan "organizar a las personas en torno a los llamados a la violencia o la exclusión de otras personas en función de sus características protegidas". Junto con lo expresado en esta lista, la empresa indica que elimina la glorificación, el apoyo y la representación explícitos de estas ideologías (se agregó el énfasis).
Meta indica dos veces que también elimina las "referencias poco claras" a ideologías de odio, primero en las bases de la política y, luego, en la descripción de las organizaciones de nivel 1.
Meta explica en las bases de la política que se requiere que los usuarios "indiquen con claridad su intención" al crear o compartir este tipo de contenido. Si la intención de un usuario es "ambigua o confusa", Meta elimina el contenido de forma predeterminada.
II. Respuestas de Meta
Meta conservó ambas publicaciones en Facebook por considerar que no infringían sus políticas. Meta confirmó que su análisis del contenido no se vio afectado por los cambios a la política del 7 de enero.
Meta indicó que las publicaciones no infringían la política de conducta que incita al odio, ya que no incluían incitaciones a la exclusión de grupos protegidos del nivel 2, ni otras formas de ataques directos prohibidos. Ninguna de las declaraciones que aparecían en las publicaciones mencionaba a un grupo protegido, y las publicaciones tampoco promovían ninguna acción en particular. Según Meta, para que la política se pueda aplicar a escala, debe existir un ataque "directo" y explícito, no basta con un ataque implícito. Ninguna de las publicaciones contenía un ataque directo.
Las pautas de aplicación de políticas internas de Meta para revisores contienen una lista ilustrativa de emojis que infringen las normas si se utilizan en un contexto que permite al revisor confirmar la intención de atacar de forma directa a una persona o grupo sobre la base de una característica protegida. Las fotos, las descripciones, el texto superpuesto en las fotos y el contenido de los videos pueden ayudar a interpretar el significado de un emoji. La lista es general y no contiene el emoji del gesto "OK".
Meta determinó que las publicaciones no infringían la política de personas y organizaciones peligrosas. Meta destacó que la bandera exhibida en las publicaciones se utilizó en Sudáfrica en el período comprendido entre 1928 y 1994, que incluye la época del apartheid y los años que lo precedieron. La empresa reconoció que, desde el fin del apartheid, esta bandera en ocasiones se ha utilizado a modo de conmemoración histórica, pero en general se utiliza como símbolo del apartheid y la herencia afrikáner. Sin embargo, también reconoció que la bandera tiene otros significados, como la conexión de los sudafricanos con diferentes aspectos de ese período, por ejemplo, cuestiones vinculadas a experiencias personales, al servicio militar y otros aspectos relacionados con la ciudadanía.
En lo relativo a la prohibición de Meta en cuanto a la glorificación, el apoyo o la representación explícitos de ideologías de odio, la empresa destacó que, en sus pautas para los revisores, solo se mencionan como ideologías de odio el nazismo, la supremacía blanca, el nacionalismo blanco y el separatismo blanco. Sin embargo, Meta explicó al Consejo que también elimina cualquier "elogio de políticas de segregación", como aquellas implementadas durante el apartheid en Sudáfrica, como el separatismo blanco. En respuesta a las solicitudes de ejemplos del Consejo, Meta manifestó que eliminaría cualquier declaración como "el apartheid fue maravilloso" en la mayoría de los casos, pero que no se trata de un ejemplo que se proporcione a los revisores en las pautas de aplicación de políticas. Entre los ejemplos de infracciones a la política que se proporcionan a los revisores, se incluyen frases como "estoy a favor de la supremacía blanca" y "sí, soy un nacionalista blanco".
Meta consideró que la declaración de la publicación del soldado: "Compartan si se desempeñaron como miembros de las Fuerzas Armadas bajo esta bandera", no glorificaba ni apoyaba una ideología de odio designada. Asimismo, la descripción de la publicación de la cuadrícula de fotos que indica que la época del apartheid "fue maravillosa" y les pide a los usuarios que "lean entre líneas" [emoji que guiña el ojo, emoji del gesto "OK"], junto con la bandera utilizada durante el apartheid e imágenes históricas de esa época, por sí solos, no glorifican ni apoyan una ideología de odio. Aunque Meta reconoce que el emoji del gesto "OK" se asocia en algunos contextos a la supremacía blanca, la visión de Meta es que generalmente significa "de acuerdo", incluso en Sudáfrica. Meta concluyó que su utilización en este caso no tiene por objeto glorificar ni apoyar una ideología de odio.
Como parte de sus iniciativas para promover la integridad en relación con las elecciones de Sudáfrica de mayo de 2024, Meta realizó campañas contra la difusión de información errónea y el lenguaje que incita al odio en sus plataformas y en radios locales en el período previo a las elecciones. El objeto de las campañas era educar a las personas para que pudieran identificar y reportar lenguaje que incita al odio e información errónea online.
El Consejo formuló preguntas acerca de la ahora llamada política de conducta que incita al odio y la política de personas y organizaciones peligrosas y su aplicación, acerca de los símbolos e ideologías que podrían infringir estas políticas y acerca de las iniciativas de Meta en relación con la integridad de las elecciones de Sudáfrica. Meta respondió todas las preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió 299 comentarios del público dentro de los plazos de presentación. Del total de comentarios, 271 provenían de África subsahariana, diez de Europa, cuatro de Asia central y meridional, cinco de los Estados Unidos y Canadá, siete de Oriente Medio y África del Norte y dos de Asia-Pacífico y Oceanía. Debido a que el plazo para comentarios del público concluyó antes del 7 de enero de 2025, ninguno de los comentarios aborda los cambios normativos que Meta realizó en esa fecha. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios enviados se referían a los siguientes temas: el significado de la bandera de la época del apartheid para la historia y la política de Sudáfrica; el impacto de exhibirla para los no blancos y las iniciativas para crear una Sudáfrica multicultural, y si su exhibición debe permitirse en las plataformas de Meta; y los usos encubiertos de símbolos online y los enfoques recomendados para moderar las imágenes visuales que podrían constituir ataques contra grupos protegidos.
5. Análisis del Consejo asesor de contenido
El Consejo seleccionó estos casos para abordar el respeto de Meta por el derecho a la libertad de expresión y otros derechos humanos en el contexto de una elección, y la manera en que trata las imágenes relacionadas con la historia reciente del apartheid en Sudáfrica. Estos casos se incluyen dentro del ámbito de las prioridades estratégicas del Consejo para elecciones y espacio cívico y lenguaje que incita al odio contra grupos marginados.
El Consejo analizó las decisiones de Meta en estos casos en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de estos casos para el enfoque más general de Meta en cuanto a la gobernanza del contenido.
5.1 Cumplimiento de las políticas de contenido de Meta
Política de conducta que incita al odio (anteriormente, lenguaje que incita al odio)
El Consejo destacó que la prohibición de Meta de "incitar o apoyar la exclusión o la segregación" sobre la base de una característica protegida admite al menos dos interpretaciones, ninguna de las cuales se ve afectada por los cambios a la política del 7 de enero. La mayoría del Consejo, al considerar el valor fundamental de expresión de Meta, favoreció una interpretación restrictiva de la regla que establece que debe haber una promoción de la exclusión o la segregación. Una minoría, al considerar el valor de dignidad de Meta, optó por aplicar una interpretación más amplia, donde la prohibición también debe abarcar el apoyo a la exclusión o la segregación de manera más general.
La mayoría del Consejo determinó que ninguna de las publicaciones infringe esta prohibición. Aunque las publicaciones parecen transmitir cierta nostalgia por la época del apartheid, no promueven la restitución del régimen ni otros tipos de exclusión racial.
En lo relativo a la publicación del soldado, la mayoría reconoció que muchas personas consideran a la bandera utilizada en el período comprendido entre 1928 y 1994 como un símbolo del apartheid. Sin embargo, la bandera en sí, combinada con una declaración sobre el servicio militar, no promueve la exclusión ni la segregación. La publicación debería contener otros elementos para considerar que infringe las normas. Aunque en esta publicación se hace referencia a la bandera de forma positiva, el contexto en el que se lo hace menciona específicamente el servicio militar y no hay ninguna referencia o afirmación clara que indique que debe restituirse el apartheid o políticas similares. Sin perjuicio de cuán insensible o controvertido pueda ser compartir esta bandera para muchas personas en la Sudáfrica actual, no sería correcto asumir, sin ningún otro tipo de prueba, que la publicación promueve la exclusión o la segregación racial y, por lo tanto, infringe esta política.
De igual modo, la mayoría consideró que la publicación de la cuadrícula de fotos, con la imagen de la bandera utilizada en el período comprendido entre 1928 y 1994 y fotos de la Sudáfrica del apartheid y la descripción, no promueve la segregación ni la exclusión. Es factible que el contenido evoque cierta nostalgia general por el período que representa. La mayoría reconoció que las frases "una época maravillosa" y "lean entre líneas", junto con los emojis que guiñan el ojo y del gesto "OK" constituyen, en combinación con las fotos, indicios de un mensaje racista que modifica la manera en que se percibirían las imágenes por sí solas. No obstante, la política de conducta que incita al odio de Meta no prohíbe la expresión de todos los puntos de vista insensibles o incluso racistas. La publicación, si se la analiza en su totalidad, no cumple con los requisitos para considerarse como una promoción de la restitución del apartheid u otras formas de segregación o exclusión racial y, por lo tanto, se permite.
Para una minoría, la bandera utilizada en el período comprendido entre 1928 y 1994 es un símbolo directo e inequívoco del apartheid. Cuando se la comparte con una referencia positiva o neutral (en lugar de a modo de repudio), se entiende contextualmente en Sudáfrica como un apoyo a la exclusión y a la segregación racial y, por lo tanto, infringe las normas. Para esta minoría, el hecho de exhibir la bandera no puede ser en ningún caso inofensivo y solo puede interpretarse como un apoyo a la exclusión racial de la época del apartheid (consulta también los comentarios del público, como los de la Comisión Sudafricana de Derechos Humanos y de la Fundación Nelson Mandela, donde se hace referencia a la decisión del Tribunal Supremo de Apelaciones (SCA) de 2023, PC-30759; PC-30771; PC-30768; PC-30772; PC-30774). La bandera utilizada en la época del apartheid también ha sido apropiada por movimientos nacionalistas blancos en otras partes del mundo (PC-30769).
Por estos motivos, la minoría considera que ambas publicaciones constituyen un apoyo a la exclusión racial. La publicación del soldado, que anima a las personas a volver a compartir la bandera, solo puede interpretarse como un apoyo a la política segregacionista que representa la bandera. Al considerar la publicación de la cuadrícula de fotos en su totalidad, las imágenes y la descripción dejan claro que el objeto de la publicación es apoyar la exclusión y la segregación racial. Dado que la publicación incluye la bandera en un contexto que no tiene por objeto la generación de conciencia o repudio, infringe las normas únicamente por este motivo. Además, el resto de las fotos parecen ser imágenes estándar que muestran aspectos de la vida en una época de segregación; no constituyen un relato personal que denote nostalgia, como también lo deja en claro la descripción. El uso del emoji del gesto "OK" (representativo de la supremacía blanca) en la descripción no puede pasarse por alto. Los supremacistas blancos de todo el mundo lo entienden como una forma encubierta de lenguaje que incita al odio y un mensaje subliminar, en el que se forman la letra "W" (por "white" [en inglés, blanco]) con tres dedos y la letra "P" (por "power" [en inglés, supremacía]) con el dedo índice y pulgar conectados (consulta PC-30768). Su inclusión aquí no se dio de forma aislada. Cuando se lo combina con imágenes del apartheid, una referencia a "una época maravillosa" y una invitación a los usuarios a "leer entre líneas", junto con un emoji que guiña el ojo, incluso para una persona no acostumbrada a la simbología de la supremacía blanca resultaría evidente que la publicación apoya la exclusión racial y, por lo tanto, infringe las normas. A criterio de la minoría, para llegar a esta conclusión, es importante entender la manera en que se ha adaptado el uso de lenguaje y símbolos racistas online con el objeto de evadir las normas de moderación de contenido, y el modo en que expresiones más sutiles (pero aun así directas) de apoyo a la exclusión pueden utilizarse para conectar a personas que piensan igual. Como sucede en este caso, el lenguaje que incita al odio encubierto o indirecto puede ser alarmantemente inequívoco, incluso cuando no incluye afirmaciones literales sobre el mensaje que pretende transmitir.
Política de personas y organizaciones peligrosas
Mediante las preguntas que el Consejo le hizo a Meta, el Consejo considera que la designación de la empresa del separatismo blanco como ideología de odio incluye el apartheid de Sudáfrica. Sin embargo, las pautas internas de los revisores de Meta podrían hacer esto más explícito brindando ejemplos más amplios de infracciones. Según se aborda en la sección 5.2 (Legalidad) a continuación, las reglas de Meta sobre las ideologías designadas son ambiguas. El Consejo determinó, de manera unánime, que ambas publicaciones infringen la política de personas y organizaciones peligrosas, pero por distintos motivos. Para la mayoría, ambas publicaciones cumplen con la definición de Meta de referencias poco claras hacia el separatismo blanco, que se encuentra prohibido por la política. Para una minoría, ambas publicaciones constituyen una glorificación del separatismo blanco.
El Consejo indica que la bandera de Sudáfrica utilizada entre 1928 y 1994 no puede desvincularse del apartheid como una forma de ideología de los separatistas blancos. Fue la bandera nacional durante dos décadas de discriminación racial legalizada anterior al apartheid y desde que se implementó el apartheid en 1948.
Para la mayoría, la publicación del soldado, que incentiva a otros a volver a compartir si sirvieron en el ejército bajo la bandera, no glorifica, de manera explícita, el apartheid como forma de supremacía blanca en su referencia expresa y positiva al servicio militar. De modo similar, la publicación con la cuadrícula de fotos no indica si hace alusión a experiencias personales durante la época del apartheid o la glorifica. Sin embargo, como se mencionó anteriormente, existen diversos indicadores de un mensaje racista en esta publicación, en particular el uso del emoji del gesto "OK" junto a la bandera. Para la mayoría, los indicadores positivos, pero indirectos, en ambas publicaciones constituyen una "referencia poco clara" al separatismo blanco que infringe las normas, pero no son lo suficientemente explícitos para considerarse "glorificación".
Para una minoría del Consejo, ambas publicaciones cumplen con los requisitos para que se consideren una glorificación explícita del separatismo blanco por los mismos motivos por los que constituyen un apoyo a la exclusión o a la segregación racial en virtud de la política de conducta que incita al odio. En la publicación del soldado, la referencia positiva a la bandera de la época del apartheid como símbolo inherente del separatismo blanco, incluido en el contexto del servicio militar, constituye una glorificación de esa ideología, incluso sin que las políticas del apartheid se mencionen específicamente. En el caso de la publicación con la cuadrícula de fotos, la combinación del símbolo de supremacía blanca (el emoji del gesto "OK"), la bandera y la frase "la época maravillosa" también glorifica esta ideología de manera explícita. Para estos miembros del Consejo, los usuarios que reportaron ambas publicaciones y los comentarios que generaron las publicaciones confirman que el público comprendió bien la glorificación del apartheid que se realiza en el contenido. Las diversas reacciones a las publicaciones demuestran cómo las comunicaciones ofensivas de los separatistas blancos pueden evadir, de manera creativa, la moderación del contenido. También indican cómo las personas que incitan al odio interconectadas pueden explotar el diseño de las plataformas de Meta para difundir su mensaje, identificar a nuevos miembros y ampliar su cantidad.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
La mayoría de los miembros del Consejo afirma que conservar ambas publicaciones en la plataforma fue coherente con las responsabilidades de Meta en materia de derechos humanos. Una minoría no está de acuerdo con esto y determina que la eliminación de las publicaciones sería coherente con estas responsabilidades.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) establece una amplia protección de la libertad de expresión, incluidas las opiniones sobre política, asuntos públicos y derechos humanos (observación general n.º 34, párrafos 11 y 12). El Comité de Derechos Humanos de la ONU destacó que el valor de expresión es particularmente alto cuando se debaten asuntos políticos (observación general n.º 34, párrafos 11 y 13). Señaló que la libertad de expresión es fundamental para la gestión de asuntos públicos y el ejercicio efectivo del derecho de voto (observación general n.º 34, párrafo 20; consulta también la observación general n.º 25, párrafos 12 y 25). Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes".
El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas, que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo utiliza tanto respecto de la decisión sobre el contenido en particular que se encuentra en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gobernanza del contenido. Como indicó el Relator Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los Gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su aplicación" y deben "proporcionar orientación suficiente para que los encargados de su ejecución distingan cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). Cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras respecto de su aplicación.
Estos casos destacan dos problemas de claridad respecto de las prohibiciones de conductas que incitan al odio de Meta. En primer lugar, Meta proporcionó respuestas contradictorias al Consejo sobre si los "ataques directos" incluyen declaraciones implícitas o no (surgieron inquietudes similares en el caso Dibujo animado de Knin del Consejo). Además, tampoco resulta claro si la regla sobre "incitaciones a la exclusión o segregación, o apoyo de estas conductas" se limita a la defensa de causas de exclusión o incluye cualquier apoyo más amplio a la exclusión o segregación. Esto se ve agravado por la falta de ejemplos globales de infracciones que se les brindan a los revisores, y ninguno de ellos incluye el apartheid.
La política de personas y organizaciones peligrosas también presenta un lenguaje contradictorio sobre el enfoque de Meta respecto de las ideologías de odio. En algunas partes, especifica que se prohíben las referencias poco claras a las ideologías de odio, mientras que, en otras, sugiere que solo se prohíbe "la glorificación, el apoyo o la representación explícitos". Las pautas internas proporcionadas a los revisores indican que se prohíben las referencias, la glorificación, el apoyo o la representación. La lista de prohibiciones que se mencionan en la sección "Eliminamos" de esta política no hace referencia a la regla sobre ideologías de odio en absoluto, lo que genera mayor confusión.
Si bien el Consejo determina que el "separatismo blanco" debe incluir, de manera implícita, el apartheid como se implementó en Sudáfrica, las pautas internas que Meta proporciona a los revisores no lo hacen de forma explícita ni incluyen suficientes ejemplos que corresponden al contexto sudafricano. Los ejemplos de contenido que infringe las normas proporcionados al Consejo por Meta como respuesta a las inquietudes (p. ej., "el apartheid fue maravilloso", "estoy a favor de la supremacía blanca") no reflejan la realidad de cómo se suele expresar el mensaje de los supremacistas blancos. Al mismo tiempo, el Consejo indica que, aunque el apartheid tal como se implementó en Sudáfrica se encuentra inherentemente relacionado con la supremacía y el separatismo blancos, el concepto de apartheid en el derecho internacional corresponde al dominio intencional de todo grupo racial sobre otro para oprimirlo de manera sistemática (Estatuto de Roma de la Corte Penal Internacional, artículo 7(2)(h); Convención contra el apartheid, artículo 2). Esto suscita preguntas respecto de por qué el apartheid no se incluye en la lista como una designación independiente. Como las políticas de Meta son globales, varios miembros del Consejo también cuestionan por qué la lista de Meta se centra en ideologías que podrían suponer riesgos en las regiones de la minoría global, pero no contempla la misma clase de ideologías de odio en las regiones de la mayoría global.
II. Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3, del ICCPR).
El Consejo previamente reconoció que la política de lenguaje que incita al odio procura el fin legítimo de proteger los derechos de los demás. Esos derechos incluyen los derechos a la igualdad y a la no discriminación (artículo 2, párrafo 1, del ICCPR; artículos 2 y 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial [ICERD]). Esto también corresponde a la política de conducta que incita al odio revisada.
De igual modo, el Consejo considera que la política de personas y organizaciones peligrosas, cuyo objetivo es "evitar y prevenir daños en la vida real", procura el fin legítimo de proteger los derechos de los demás, como el derecho a la vida (artículo 6 del ICCPR) y el derecho a la igualdad y a la no discriminación (artículos 2 y 26 del ICCPR).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora, deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
La mayoría de los miembros del Consejo determina que conservar ambas publicaciones concuerda con las responsabilidades de Meta en materia de derechos humanos, y la eliminación no sería necesaria ni proporcionada. Estos miembros del Consejo reconocen que el legado del apartheid continúa y que ha tenido consecuencias a largo plazo en todo el territorio sudafricano que se perciben aún hoy. Asimismo, la ley internacional sobre derechos humanos brinda una mayor protección a la libertad de expresión que se relaciona con la participación política, incluso en el contexto de elecciones (observación general n.º 25, párrafos 12 y 25). En el caso Comentarios de un político sobre cambios demográficos, el Consejo afirmó que las expresiones de opiniones controvertidas se encuentran protegidas por las normas internacionales sobre derechos humanos. Ambas publicaciones constituyen expresiones protegidas. Incluso si se consideran "profundamente ofensivas", esto no las convierte en incitación a la discriminación probable e inminente (consulta la observación general n.º 34, [2011], párrafo 11; consulta también el párrafo 17 del informe de 2019 del Relator Especial de la ONU sobre libertad de expresión, A/74/486).
La mayoría del Consejo destaca que el Relator Especial de la ONU sobre libertad de expresión ha aclarado que las prohibiciones en el discurso pueden justificarse solo cuando existen daños concretos inminentes y probables. Sin embargo, cuando los daños no son probables ni inminentes, pueden implementarse otras medidas (consulta el informe A/74/486, párrafos 13 y 54). De igual modo, el Comité de Derechos Humanos de la ONU ha declarado lo siguiente: "Por lo general, el uso de banderas, uniformes, signos y pancartas se debe considerar como una forma legítima de expresión que no debe restringirse, aunque esos símbolos recuerden un pasado doloroso. En casos excepcionales, cuando esos símbolos se asocien, de manera directa y predominante, con la incitación a la discriminación, la hostilidad o la violencia, se deben aplicar las restricciones correspondientes" (observación general n.º 37 sobre el derecho a la reunión pacífica, CCPR/C/GC/37, párrafo 51).
Para la mayoría, existen inquietudes respecto del alcance excesivo de la prohibición sobre "referencias poco claras" de la política de personas y organizaciones peligrosas. Como Meta busca reducir los errores de la moderación de contenido, según lo anunciado el 7 de enero, estos miembros del Consejo recomiendan que se examine cuán precisa y correcta es la aplicación de la regla sobre "referencias poco claras", así como la compatibilidad entre las eliminaciones y las responsabilidades de Meta en materia de derechos humanos.
El Consejo suele usar la prueba de seis factores del Plan de Acción de Rabat para evaluar si la incitación a la violencia o discriminación es probable e inminente. La mayoría de los miembros determina que ninguna de las publicaciones reunió estas características. Para la mayoría, la probabilidad de discriminación o violencia inminente planteada por el contenido es baja por diversos motivos. Como se mencionó anteriormente, el contexto histórico del apartheid en Sudáfrica y su legado continuo resultan importantes para la interpretación de estas publicaciones. Asimismo, la democracia representativa relativamente estable del país desde el fin del apartheid y su sólido marco de acción legal para proteger los derechos humanos también son relevantes, en especial porque se celebraron elecciones allí en el momento de estas publicaciones. Los expertos a quienes consultó el Consejo indicaron que el discurso de los supremacistas blancos no constituyó un problema importante durante las elecciones de mayo de 2024. Manifestaron que el período anterior a dichas elecciones no se caracterizó por violencia interracial ni incitaciones a la violencia por parte de la minoría de raza blanca contra otros grupos raciales o étnicos. Ninguna de las publicaciones pertenece a un orador de alto perfil o influyente, lo que reduce el riesgo de que persuadan a alguna persona a cometer actos inminentes de discriminación o violencia. Ninguna de las publicaciones incluye incitaciones a cometer actos. Las publicaciones no incluyen una intención clara de defender futuros actos de discriminación o violencia ni se comprenderían como una incitación a cometer dichos actos. Al tener en cuenta estos factores, la mayoría del Consejo determina que no resultó probable ni inminente que la violencia o discriminación hubiera sido generada por estas publicaciones.
La prohibición de discursos altamente ofensivos que no incitan a provocar daños inminentes y probables no hace que las ideas intolerantes desaparezcan. En su lugar, las personas con estas ideas se dirigen a otras plataformas, a menudo con personas afines en vez de una variedad más amplia de personas. Esto puede exacerbar la intolerancia en lugar de permitir un discurso público más transparente sobre estos temas.
La mayoría considera que, en lugar de las eliminaciones, una variedad de otras herramientas de moderación de contenido podría haber constituido un medio menos invasivo para lograr los fines legítimos en estos casos. La mayoría reconoce las repercusiones emocionales posiblemente negativas del contenido en estos casos, así como el fin legítimo de Meta de intentar evitar la discriminación. Según lo que el Consejo determinó en una de sus primeras opiniones (Afirmación sobre la existencia de una cura para el COVID-19), la empresa debe intentar primero alcanzar los fines legítimos mediante la implementación de medidas que no atenten contra la libertad de expresión. Si eso no es posible, la empresa debe seleccionar la herramienta menos invasiva para lograr el fin legítimo. Luego, debe supervisar que la herramienta seleccionada sea efectiva. Meta debe usar este marco de acción al justificar públicamente las reglas y su aplicación de políticas.
De hecho, el Relator Especial de la ONU sobre libertad de expresión indicó lo siguiente (informe A/74/486, párrafo 51): "Las empresas disponen de instrumentos para tratar el contenido de manera que se respeten los derechos humanos, en algunos aspectos una gama de instrumentos más amplia que la de que disponen los Estados". El Consejo insta a Meta a explorar, de manera transparente, la ampliación de su conjunto de herramientas de aplicación de políticas e introducir medidas intermedias al aplicar la política de conducta que incita al odio, en lugar de la opción binaria predeterminada de conservar o eliminar las publicaciones. En el caso Bot de Birmania, el Consejo determinó que el "aumento de las responsabilidades no debe originar la eliminación predeterminada, ya que lo que está en juego es mucho, tanto al conservar contenido dañino como al eliminar contenido que implica poco o ningún riesgo de daño". El Consejo insta a Meta a analizar cómo la eliminación del contenido podría ser una medida extrema que afecte, de manera adversa, la libertad de expresión online. También insta a la empresa a considerar otras herramientas, como la eliminación del contenido de las recomendaciones o la reducción de la distribución en los feeds de los usuarios, en los casos que correspondan.
Una minoría de los miembros del Consejo determina que eliminar ambas publicaciones sería un límite necesario y proporcionado sobre la libertad de expresión para garantizar el respeto del derecho de igualdad, así como la ausencia de discriminación para los sudafricanos no blancos. La minoría se guía por los factores del Plan Rabat para evaluar los riesgos que supone el posible lenguaje que incita al odio, incluidos los daños a los que contribuyeron estas publicaciones (op. cit.).
En especial, una minoría destaca los comentarios públicos de la Fundación Nelson Mandela y de la Comisión Sudafricana de Derechos Humanos, entre otros. Estos confirman las diversas maneras en que la expresión en las plataformas de Meta que apoya a la segregación, la justifica o la glorifica contribuye a la persistencia de la discriminación después del apartheid (PC-30759; PC-30771; PC-30768; PC-30772; PC-30774). Los comentarios debajo de cada publicación, en su mayoría en afrikáans, que muestran un sentimiento de supremacía blanca basado en el colonialismo, para esta minoría, confirman que el objetivo del orador de fomentar el odio en un entorno de discriminación grave tuvo éxito. La minoría indica que, en el caso Representación de Zwarte Piet, la mayoría del Consejo ratificó la eliminación de una publicación en función de sus efectos sobre la autoestima y la salud mental de las personas negras, incluso cuando el orador tal vez no haya tenido la intención de provocar dichos efectos. Este caso es relevante más allá de Sudáfrica. Expertos a quienes el Consejo ha consultado indicaron que los símbolos del apartheid, incluida la bandera utilizada entre 1928 y 1994, también han sido apropiados por movimientos nacionalistas blancos en otras partes del mundo. Esto incluye a Dylann Roof, quien le disparó a nueve miembros de una iglesia de feligreses negros en los Estados Unidos en 2015. Una foto de Roof incluida en sus medios sociales lo muestra usando una chaqueta con un parche de la bandera utilizada en la época del apartheid (PC-30769).
Asimismo, una minoría reitera que Meta, como actor privado, puede eliminar el lenguaje que incita al odio que no constituye una incitación a la discriminación o violencia inminente cuando esto reúne los requisitos del artículo 19(3) del ICCPR de necesidad y proporcionalidad (informe A/HRC/38/35, párrafo 28). En el caso Insultos a Sudáfrica, el Consejo ratificó la eliminación de Meta de insultos raciales, en gran medida, en función de las particularidades del contexto sudafricano. Para una minoría en este caso, la eliminación de ambas publicaciones es necesaria, no solo para evitar la discriminación, sino también para garantizar que la acumulación de odio en la plataforma no atente contra la libertad de expresión de las personas a quienes se dirige el lenguaje que incita al odio continuamente (consulta también los casos Representación de Zwarte Piet, Violencia en una comunidad del estado de Odisha de la India, Armenios en Azerbaiyán y Dibujo animado de Knin). Para la minoría, las consecuencias de la moderación de contenido sobre los derechos humanos de los usuarios (en particular, la eliminación del discurso y las limitaciones de funciones o suspensiones para las infracciones recurrentes) resultan significativamente diferentes de aquellas que exigen el cumplimiento de leyes sobre el lenguaje que incita al odio (como multas o encarcelamiento). Por estos motivos, una minoría determina que la eliminación de ambas publicaciones de acuerdo con la regla de exclusión de la política de conducta que incita al odio, así como la prohibición de "glorificación" de la política de personas y organizaciones peligrosas serían necesarias y proporcionadas. Una minoría indica que la aplicación a escala precisa de la excepción sobre el discurso social y político de la política de personas y organizaciones peligrosas debe garantizar que no se exija el cumplimiento de este conjunto de reglas de manera excesiva.
Procesos de diligencia debida respecto de los derechos humanos
Los principios 13, 17(c) y 18 de los UNGP exigen que Meta se comprometa a ejercer la diligencia debida respecto de los derechos humanos para los cambios significativos en las políticas y su aplicación, lo que la empresa normalmente haría a través de su Foro de políticas de productos, lo que incluye mantener un diálogo con las partes interesadas afectadas. Al Consejo le preocupa que los cambios en la política y su cumplimiento por parte de Meta el 7 de enero de 2025 se anunciaron apresuradamente, de una manera que se desvía del procedimiento habitual, sin compartir información pública acerca de qué proceso anterior de diligencia debida relativo a los derechos humanos se llevó a cabo (si hubo).
Ahora que estos cambios se implementarán en todo el mundo, es importante que Meta garantice que se identifiquen, mitiguen, prevengan y publiquen los efectos adversos que tengan en los derechos humanos. Esto debe incluir un enfoque en cómo las comunidades pueden verse afectadas de manera diferente, incluso en las regiones de la mayoría global. En relación con los cambios normativos, la diligencia debida debería tener en cuenta las posibilidades tanto de una aplicación excesiva (Convocatoria a protesta de mujeres en Cuba, Reapropiación de términos árabes) como de una aplicación deficiente ( Negación del Holocausto, Violencia homofóbica en África Occidental, Publicación en polaco contra las personas trans).
El Consejo indica que muchos de estos cambios se están implementando en todo el mundo, incluso en países donde ciertos grupos son mayoría como Sudáfrica y otros con antecedentes recientes de crímenes de lesa humanidad, que no se limitan al apartheid. Resulta especialmente importante que Meta garantice que los efectos adversos de estos cambios en los derechos humanos en dichas regiones se identifiquen, mitiguen, prevengan y publiquen lo antes posible, incluso a través de una sólida colaboración con las partes interesadas locales. El Consejo señala que, en 2018, Meta citó la falta de eliminación de contenido con lenguaje que incita al odio de Facebook en situaciones de crisis como la de Birmania como motivación para aumentar la aplicación de políticas automatizada. En muchas partes del mundo, es menos probable que los usuarios interactúen con las herramientas de reportes dentro de la app de Meta por diversos motivos, lo que convierte a los reportes de usuarios en una señal poco confiable de dónde podrían estar ocurriendo los peores daños. Por lo tanto, es esencial que Meta considere en su totalidad de qué modo los efectos de los cambios en la detección automática de contenido potencialmente infractor, para la aplicación de políticas tanto excesiva como insuficiente, puede tener efectos desiguales en todo el mundo, especialmente en países que experimentan crisis, guerras o crímenes atroces en la actualidad o que los han experimentado en el último tiempo.
6. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratifica las decisiones de Meta de conservar ambas publicaciones.
7. Recomendaciones
Política de contenido
1. Como parte de su proceso continuo de diligencia debida respecto de los derechos humanos, Meta debe adoptar todos los pasos que se mencionan a continuación respecto de las actualizaciones del 7 de enero de la política de conducta que incita al odio. En primer lugar, debe identificar cómo las actualizaciones de la política y su cumplimiento pueden afectar de manera adversa a las poblaciones de las regiones de la mayoría global. En segundo lugar, Meta debe adoptar medidas para evitar o mitigar estos riesgos y monitorear su eficacia. Por último, Meta debe informar al Consejo sobre los avances y los aprendizajes cada seis meses y proporcionar informes públicos a la mayor brevedad posible.
El Consejo considerará que se ha implementado esta recomendación cuando Meta brinde al Consejo datos y análisis sólidos sobre la eficacia de sus medidas de prevención y mitigación respecto de la cadencia que se detalla anteriormente y cuando Meta proporcione informes públicos sobre esto.
2. Para mejorar la claridad de la política de personas y organizaciones peligrosas, Meta debe adoptar una explicación única, clara e integral sobre la manera en que sus prohibiciones y excepciones se aplican a ideologías de odio designadas en virtud de dicha política.
El Consejo considerará que se ha implementado esta recomendación cuando Meta adopte una explicación única, clara e integral sobre esta regla y las excepciones relacionadas con las ideologías de odio designadas (en la sección "Eliminamos").
3. Para mejorar la claridad de la política de personas y organizaciones peligrosas, Meta debe incluir el apartheid como una ideología de odio designada de forma independiente en las reglas.
El Consejo considerará que se ha implementado esta recomendación cuando Meta agregue el apartheid a su lista de ideologías de odio.
Aplicación de políticas
4. Para mejorar la claridad para los revisores respecto de su política de personas y organizaciones peligrosas, Meta debe proporcionarles más ejemplos globales de actos de glorificación, apoyo y representación de ideologías de odio que se encuentran prohibidos, incluidos ejemplos en los que no se mencione la ideología en cuestión de forma directa.
El Consejo considerará que se ha implementado esta recomendación cuando Meta proporcione una guía interna actualizada al Consejo que incluya más ejemplos globales, incluso aquellos en lo que no se mencione la ideología en cuestión de forma directa.
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5, y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
Volver a Decisiones de casos y opiniones consultivas sobre políticas