Decisión de casos múltiples
Acusaciones de criminalidad basadas en la nacionalidad
El Consejo revisó tres casos en conjunto que implican acusaciones de criminalidad contra personas basadas en su nacionalidad. Al anular una de las decisiones de Meta de eliminar una publicación de Facebook, el Consejo tuvo en cuenta cómo estos casos plantearon la cuestión más amplia de distinguir contenido que critica las acciones y políticas de un Estado de aquel que ataca a las personas en función de su nacionalidad.
3 casos incluidos en el paquete
FB-25DJFZ74
Caso sobre lenguaje que incita al odio en Facebook
IG-GNKFXL0Q
Caso sobre lenguaje que incita al odio en Instagram
TH-ZP4W1QA6
Case about hate speech on Threads
Resumen
El Consejo revisó tres casos en conjunto que implican acusaciones de criminalidad contra personas basadas en su nacionalidad. Al anular una de las decisiones de Meta de eliminar una publicación de Facebook, el Consejo tuvo en cuenta cómo estos casos plantearon la cuestión más amplia de distinguir contenido que critica las acciones y políticas de un Estado de aquel que ataca a las personas en función de su nacionalidad. El Consejo recomendó modificar la política de lenguaje que incita al odio de Meta y abordar los desafíos que implica la aplicación de políticas y, en este sentido, optó por un enfoque con matices que es adecuado para la moderación a gran escala e incluye protecciones para evitar consecuencias negativas. Como parte de la regla sobre lenguaje que incita al odio relevante, Meta debe desarrollar una excepción para subcategorías más acotadas que emplean señales objetivas para determinar si el blanco al que va dirigido dicho contenido es un Estado o sus políticas, o bien un grupo de personas.
Información de los casos
En el primer caso, una publicación de Facebook describía a los rusos y los estadounidenses como "criminales". El usuario señalaba que estos últimos eran más "honorables" porque admiten sus crímenes, mientras que los rusos "quieren sacar partido de los crímenes" que cometen los estadounidenses. Los sistemas automatizados de Meta enviaron esta publicación a un revisor, pero el reporte se cerró automáticamente, de modo que el contenido permaneció en Facebook. Tres meses más tarde, cuando Meta seleccionó este caso para remitirlo al Consejo, los expertos en políticas de Meta decidieron que la publicación infringía la norma comunitaria sobre lenguaje que incita al odio y la eliminaron. Si bien el usuario apeló la decisión, Meta determinó como correcta su decisión de eliminar el contenido tras otras revisiones manuales.
En el segundo caso, un usuario respondió a un comentario en una publicación de Threads. La publicación incluía un video sobre el conflicto entre Gaza e Israel, así como un comentario que decía: "genocide of terror tunnels?" ("¿Genocidio en los túneles del terror?"). Las respuesta del usuario afirmaba: "Genocide … all Israelis are criminals" ("Genocidio... todos los israelíes son criminales"). Los sistemas automatizados de Meta enviaron este contenido a un revisor y, luego, se eliminó por infringir las reglas de lenguaje que incita al odio.
El tercer caso tiene que ver con el comentario de un usuario en una publicación de Instagram en la que se describe a "todos los indios" como "violadores". La publicación de Instagram original muestra un video en el que una mujer está rodeada por hombres que parecen estar mirándola. Meta eliminó el comentario en virtud de sus reglas de lenguaje que incita al odio.
Meta remitió los tres casos al Consejo. Los desafíos de abordar acusaciones de criminalidad contra personas en función de su nacionalidad son particularmente relevantes durante crisis y conflictos, cuando "se pueden interpretar como ataques contra las políticas de un país, su gobierno o su ejército, más que como ataques contra su gente", según enunció la empresa.
Conclusiones principales
El Consejo determinó que Meta eliminó incorrectamente la publicación de Facebook en el primer caso, que menciona a los rusos y los estadounidenses, porque hay indicios que señalan que el contenido toma como blanco a dos países, no a sus ciudadanos. De conformidad con sus reglas de lenguaje que incita al odio, Meta no admite "lenguaje deshumanizante en forma de ataques contra una persona o un grupo de personas" en función de su nacionalidad por medio de comparaciones en relación con "criminales". No obstante, en esta publicación, es muy probable que las referencias a los crímenes cometidos por rusos y estadounidenses tengan que ver con los Estados o sus políticas, conclusión confirmada por el informe que encargó el Consejo a un experto.
En el segundo y el tercer caso, la mayoría en el Consejo está de acuerdo con Meta en que el contenido sí infringió las reglas que prohíben ataques contra personas por su nacionalidad, ya que las referencias a "todos los israelíes" y "todos los indios" indican que el blanco del ataque son las personas. El contenido no incluye indicios contextuales que señalen que se critican las medidas del Estado de Israel o el Gobierno indio respectivamente. Por ende, el contenido en ambos casos debería haberse eliminado. No obstante, una minoría en el Consejo no está de acuerdo y manifiesta que eliminar el contenido en estos casos no fue el medio menos invasivo con el que cuenta Meta para abordar posibles peligros. Estos miembros del Consejo señalan que Meta no respetó los principios de necesidad y proporcionalidad al eliminar el contenido.
En cuanto al asunto más general de los cambios normativos, el Consejo cree que se necesita un enfoque matizado y a escala para proteger el discurso político relevante sin aumentar el riesgo de daño contra grupos que son el objetivo de ataques. En primer lugar, Meta debe detectar señales específicas y objetivas con las que reduciría las posibilidades de eliminar o conservar contenido dañino erróneamente.
Si no se proporciona una lista exhaustiva de señales, el Consejo cree que Meta debería permitir acusaciones de criminalidad cuando se dirigen contra un grupo específico que es probable que represente al Estado, como la policía, las fuerzas armadas, el ejército, los soldados, el Gobierno y otros funcionarios del Estado. Otra señal objetiva se relacionaría con la naturaleza del crimen que se señala, como atrocidades o violaciones graves de los derechos humanos, que se pueden asociar más típicamente con los Estados. Esto significa que las publicaciones en las que se vinculan ciertos tipos de crímenes con la nacionalidad se tratarían como discurso político que critica las medidas de un Estado y permanecerían en la plataforma.
Asimismo, Meta podría considerar las señales lingüísticas que distinguirían entre declaraciones políticas y ataques contra personas basados en su nacionalidad. Si bien dichas distinciones variarán según el idioma, lo que suma aún más importancia al contexto, el Consejo sugiere que la presencia o ausencia del artículo definido podría ser esa señal. Por ejemplo, términos como "todos" ("todos los estadounidenses cometen crímenes") o "los" ("los estadounidenses cometen crímenes") podrían indicar que el usuario hace una generalización sobre todo un grupo de personas, no sobre el Estado del país.
Contar con un enfoque normativo más matizado supondrá desafíos de aplicación de políticas, como Meta ya indicó y el Consejo reconoce. El Consejo manifiesta que Meta podría elaborar listas de agentes y crímenes que es muy probable que hagan referencia a agentes o políticas de un Estado. Una de esas listas podría incluir a la policía, las fuerzas armadas, el ejército, el Gobierno y otros funcionarios del Estado. En cuanto a las fotos y los videos, los revisores podrían buscar indicios visuales en el contenido, como personas vestidas con uniforme militar. Cuando dicho indicio se combina con una generalización sobre criminalidad, podría indicar que el usuario no compara a personas con criminales, sino que se refiere a acciones o agentes del Estado.
El Consejo insta a Meta a diseñar medidas de aplicación de políticas cuyo objetivo sea informar a los usuarios y brindarles herramientas cuando se coarta la libertad de expresión. En respuesta a una de las recomendaciones anteriores del Consejo, Meta ya se comprometió a enviar notificaciones a los usuarios ante posibles infracciones de las Normas comunitarias. El Consejo considera esta implementación como un paso importante para informar y empoderar a los usuarios en las plataformas de Meta.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido en el primer caso y solicitó que se restaurara la publicación. En el segundo y el tercer caso, el Consejo ratificó las decisiones de Meta de eliminar el contenido.
El Consejo le recomendó a Meta lo siguiente:
- Modificar la norma comunitaria sobre lenguaje que incita al odio, específicamente la regla que no permite "lenguaje o imágenes deshumanizantes en forma de comparaciones o generalizaciones en relación con criminales", dirigidas a las personas en función de su nacionalidad, e incluir en ella una excepción que admita las siguientes líneas: "Excepto cuando los agentes (p. ej., policías, miembros del ejército, soldados, funcionarios del Gobierno o del Estado) o los crímenes (p. ej., atrocidades o violaciones graves de los derechos humanos, conforme se especifican en el Estatuto de Roma de la Corte Penal Internacional) se vinculan a un Estado, no a las personas con base en su nacionalidad".
- Publicar los resultados de las auditorías internas que realiza para evaluar la precisión de la revisión manual y el rendimiento de los sistemas automatizados en la aplicación de la política de lenguaje que incita al odio. Dichos resultados deben proporcionarse de un modo que permita comparar estas evaluaciones en diversos idiomas y regiones.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Descripción y contexto del caso
Estos casos entrañan tres decisiones que tomó Meta respecto de contenido en Facebook, Threads e Instagram. Meta remitió los tres casos al Consejo.
El primer caso implica una publicación de Facebook en árabe de diciembre de 2023, en la que se afirmaba que los rusos y los estadounidenses son "criminales". Además, el contenido señala que los "estadounidenses son más honorables" porque admiten sus "crímenes", mientras que los rusos "quieren sacar partido de los crímenes" que cometen los estadounidenses. Luego de que una de las herramientas de clasificación automática de Meta (un clasificador de lenguaje hostil) identificara el contenido como una posible infracción, se envió a revisión manual. No obstante, se cerró automáticamente, por lo que el contenido no se revisó y permaneció en Facebook. En marzo de 2024, cuando Meta seleccionó el contenido para remitirlo al Consejo, los expertos en políticas de la empresa determinaron que la publicación infringía la norma comunitaria sobre lenguaje que incita al odio. Más adelante se eliminó de Facebook. El usuario que lo publicó apeló esta decisión a Meta. Tras otra ronda de revisión manual, la empresa determinó como correcta la decisión de eliminar el contenido.
El segundo caso se relaciona con la respuesta de un usuario en inglés a un comentario en una publicación de Threads de enero de 2024. La publicación era un video en el que se debatía el conflicto entre Israel y Gaza. En ella figuraba un comentario que decía: "genocide of terror tunnels?" ("¿Genocidio en los túneles del terror?"). La respuesta era "genocide" ("genocidio") y además afirmaba que "all Israelis are criminals" ("todos los israelíes son criminales"). Las herramientas de clasificación automática de Meta (un clasificador de lenguaje hostil) identificaron el contenido como una posible infracción. Tras la revisión manual, Meta eliminó la respuesta al comentario por infringir la norma comunitaria sobre lenguaje que incita al odio. Los expertos en políticas de Meta también determinaron que la decisión original de eliminar el contenido fue correcta, luego de que la empresa concluyera que este caso era apto para remitirlo al Consejo.
El tercer caso tiene que ver con el comentario de un usuario en inglés en una publicación de Instagram de marzo de 2024 que decía: "as a Pakistani" ("como pakistaní") "all Indians are rapists" ("todos los indios son violadores"). El comentario figuraba en respuesta a un video en el que aparece una mujer rodeada por un grupo de hombres que parecían estarla mirándola. Meta eliminó el comentario luego de que una de sus herramientas de clasificación automática (un clasificador de lenguaje hostil) lo identificara como una posible infracción de la norma comunitaria sobre lenguaje que incita al odio. Luego de que Meta decidiera remitir este contenido al Consejo, los expertos en políticas de la empresa determinaron que la decisión original de eliminarlo fue correcta.
En ninguno de los tres casos los usuarios apelaron las decisiones de Meta ante el Consejo, sino que Meta decidió remitirlos.
Conforme a los informes que el Consejo encomendó a expertos, "tanto en las plataformas de Meta como en el discurso público general prevalecen acusaciones de comportamientos criminales contra naciones, organismos del Estado y personas particulares". Las actitudes negativas contra Rusia en los medios sociales aumentaron desde que invadiera Ucrania en febrero de 2022. Según afirman los expertos, se suele acusar a los ciudadanos rusos en los medios sociales de respaldar las políticas de las autoridades, incluido el ataque de Rusia contra Ucrania. Sin embargo, no se suele acusar con mucha frecuencia a los ciudadanos rusos de "criminales", término que se emplea a menudo en referencia a los líderes políticos del país y a los soldados del ejército ruso. Conforme lo indican los expertos en lingüística a los que consultó el Consejo, la traducción en árabe de "estadounidenses" y "rusos" en el primer caso podría utilizarse para expresar el resentimiento que despiertan las normas, el Gobierno y la política de Rusia y los Estados Unidos respectivamente, no como un ataque contra las personas en sí.
Los expertos indicaron también que hubo un aumento de las menciones de Israel y los israelíes en relación con genocidio en las plataformas de Meta desde el comienzo de las operaciones militares del país en Gaza, tras el ataque terrorista de Hamás en Israel en octubre de 2023. El discurso en relación con acusaciones de actos genocidas se intensificó, en especial después de la orden del 26 de enero de 2024 de la Corte Internacional de Justicia (ICJ), mediante la que exigió medidas provisionales contra Israel bajo el amparo de la Convención para la Prevención y la Sanción del Delito de Genocidio en la Franja de Gaza (Sudáfrica contra Israel). Desde su adopción, esta orden tuvo tanto críticos como adeptos. Los expertos sostienen que las acusaciones contra el Gobierno de Israel "suelen sentar las bases del discurso y la incitación de odio antisemita", dado que la opinión pública suele vincular a menudo a las personas judías con Israel, independientemente de su nacionalidad".
Por último, los expertos explican también que es raro encontrar generalizaciones sobre los indios relacionadas con violaciones en los medios sociales. Si bien la caracterización de los "indios como violadores" ha aparecido ocasionalmente en el contexto de presunta violencia sexual por parte de las fuerzas de seguridad de la India en áreas de conflicto, raramente se refiere a "todos los indios". La mayor parte de la documentación académica, periodística y relacionada con los derechos humanos sobre estos incidentes claramente denuncia abusos por parte del ejército y no hace referencia a un grupo más general de la población.
2. Respuestas de los usuarios
A los autores de las publicaciones se les notificó acerca de la revisión del Consejo y se les brindó la oportunidad de presentar una declaración. Ninguno de ellos lo hizo.
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
En las bases de la política de lenguaje que incita al odio de Meta, se define dicho lenguaje como un ataque directo a las personas, y no a los conceptos ni a las instituciones, en función de características protegidas, lo que incluye origen nacional, raza y origen étnico. Meta no permite el lenguaje que incita al odio en sus plataformas porque "crea un ambiente intimidatorio y excluyente que, en algunos casos, puede incitar a la violencia en la vida real".
El Nivel 1 de la política de lenguaje que incita al odio prohíbe "el lenguaje o las imágenes deshumanizantes en forma de comparaciones, generalizaciones o afirmaciones no aptas basadas en comportamientos (de forma escrita o visual) en relación con criminales".
En las pautas internas que Meta brinda a los revisores de contenido sobre cómo aplicar la política, se definen las generalizaciones como "afirmaciones sobre cualidades inherentes de las personas". Asimismo, en las pautas internas de Meta, se define lo que se considera una afirmación "apta" y "no apta" basada en comportamientos, y se proporcionan ejemplos. En virtud de estas pautas, las "afirmaciones aptas" no infringen la política, mientras que las "afirmaciones no aptas" sí lo hacen y se eliminan. La empresa permite a las personas publicar contenido con afirmaciones aptas basadas en comportamientos que puede incluir acontecimientos históricos, hechos criminales o conflictos. Según Meta, una afirmación no apta basada en comportamientos "atribuye explícitamente un comportamiento a todas las personas definidas en función de una característica protegida o a la mayoría de ellas".
II. Respuestas de Meta
Meta eliminó las tres publicaciones por "atacar a personas con acusaciones de criminalidad basadas en la nacionalidad", ya que incluían generalizaciones sobre cualidades inherentes de un grupo, no sobre sus acciones. Meta señaló que las afirmaciones no se limitan explícitamente a aquellas que se vinculan con la presunta actividad criminal y no incluyen más contexto que indique que estas se relacionan con un conflicto o acontecimiento criminal particular.
Cuando Meta remitió estos casos al Consejo, manifestó que suponen el desafío de determinar cómo gestionar las acusaciones de criminalidad contra personas en función de su nacionalidad en virtud de la política de lenguaje que incita al odio. Meta le indicó al Consejo que, si bien la empresa cree que la política "logra el equilibrio adecuado entre expresión y seguridad en la mayoría de las circunstancias", hay situaciones, en particular en momentos de crisis y conflictos, "en las que las acusaciones de criminalidad contra personas de una nacionalidad concreta se pueden interpretar como un ataque contra las políticas, el Gobierno o el ejército de un país, no contra sus ciudadanos".
Pese a que estos casos no constituyen una solicitud de opinión de asesoramiento normativo, Meta presentó al Consejo enfoques normativos alternativos para que analice si la empresa debería modificar su enfoque actual, que conlleva eliminar acusaciones contra personas basadas en la nacionalidad, pero permitir las críticas contra un Estado por presuntas actividades criminales, y cómo debería llevarlo a cabo. En respuesta a las preguntas del Consejo, Meta señaló que la empresa no estableció una nueva comunicación con partes interesadas para desarrollar alternativas normativas para estos casos. En lugar de ello, tuvo en cuenta los aportes exhaustivos que obtuvo de las partes interesadas como parte de otros procesos de desarrollo de políticas. Para Meta, quedó claro que los ataques en los que se caracteriza a miembros del Estado de un país como "criminales de guerra" podrían conducir a una aplicación de políticas excesiva y limitar el discurso político legítimo, ya que tiende a haber un vínculo entre este tipo de ataques y las medidas que toman los Estados.
Conforme a la primera alternativa, Meta consideró introducir un marco solo de escalamiento para distinguir entre ataques basados en el origen nacional y aquellos que van en contra de un concepto. Esto requeriría identificar factores que permitan llegar a esta determinación, por ejemplo, si un país particular está implicado en una guerra o crisis o si el contenido hace referencia al país o su ejército, además de a sus ciudadanos. En otras palabras, si los sistemas automatizados identifican la publicación como potencialmente infractora, esta se elimina, a menos que, tras remitir el asunto a expertos en el tema de Meta, estos determinen lo contrario. Meta agregó que, si se adopta este tipo de marco, la empresa lo usaría como base para el marco solo de escalamiento existente basado en conceptos, no en personas, en virtud de la política de lenguaje que incita al odio. Esto significa que Meta "no permitiría el contenido, incluso si determina que de hecho es en contra de un país, no de sus ciudadanos, si se eliminaría de todos modos, en virtud del marco basado en conceptos, no en las personas". En virtud del marco solo de escalamiento existente basado en conceptos, no en las personas, Meta elimina "contenido que ataque conceptos, instituciones, ideas, prácticas o creencias asociados con características protegidas, que probablemente contribuya a un daño físico inminente, intimidación o discriminación".
Meta señaló que este nuevo marco permitiría que la empresa detectara más indicios contextuales, pero probablemente se aplicaría en raras ocasiones y solo durante el escalamiento. Además, "como los marcos solo de escalamiento se aplican únicamente al contenido que se escala a los equipos especializados de Meta, es posible que se perciban como injustos con quienes no tienen acceso a estos equipos y cuyo contenido se revisa a gran escala".
Conforme a la segunda alternativa, Meta presentó una variedad de opciones secundarias para abordar el riesgo de sobreaplicación de políticas a gran escala. A diferencia de la primera alternativa, esto no requeriría de contexto adicional para que se considere evaluar el contenido y se aplicaría a gran escala. Estas opciones secundarias son:
(a) Permitir todas las comparaciones con criminales sobre la base de la nacionalidad. Meta destacó que esta opción conduciría a una aplicación de políticas deficiente, ya que se conservarían algunas comparaciones con criminales que constituyen un ataque basado en la nacionalidad, sin vínculo claro con el discurso político.
(b) Permitir todas las comparaciones con criminales contra subconjuntos específicos de nacionalidades. Meta indicó que se podría tener en cuenta una excepción específica para subconjuntos de nacionalidades con probabilidades de representar la política de un gobierno o país (p. ej., "soldados rusos", "policía estadounidense" o "funcionarios del Gobierno polaco"), en función de la presunción de que es más probable que estos subconjuntos reflejen la política de un gobierno o país.
(c) Distinguir entre los diferentes tipos de acusaciones de criminalidad. Meta expresó que las referencias a algunos tipos de crímenes pueden estar más frecuentemente vinculadas a Estados o instituciones, o parecen tener más raigambre político que otras.
El Consejo planteó a Meta preguntas sobre la viabilidad operativa y las concesiones que implican las medidas normativas alternativas propuestas, así como la interacción entre las políticas existentes y dichas medidas. Meta respondió todas las preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió 14 comentarios del público dentro de los plazos de presentación. Siete de los comentarios provinieron de los Estados Unidos y Canadá; seis, de Europa; y uno, de Asia-Pacífico y Oceanía. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios abarcan los siguientes temas: las implicaciones de las acusaciones de criminalidad contra todo un país en épocas de conflicto, la norma comunitaria sobre lenguaje que incita al odio de Meta y las responsabilidades de Meta con los derechos humanos en situaciones de conflicto.
5. Análisis del Consejo asesor de contenido
El Consejo aceptó estos casos para evaluar cómo Meta debería moderar las acusaciones de criminalidad basadas en la nacionalidad, en particular cómo la empresa debería distinguir entre ataques contra personas en función de su nacionalidad y las referencias a las medidas y los agentes de un Estado durante crisis y conflictos. Estos casos se incluyen en las prioridades estratégicas del Consejo para crisis y conflictos y lenguaje que incita al odio contra grupos marginalizados.
El Consejo analizó las decisiones de Meta en estos casos en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. El Consejo evaluó también cómo Meta debería distinguir entre el discurso que atribuye criminalidad a las personas como miembros de un país y aquel que lo hace con un Estado. Dicha distinción es adecuada como una cuestión de principios, pero su implementación es compleja, en especial a gran escala.
5.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
Para el Consejo, el contenido en el segundo y el tercer caso infringe la política de lenguaje que incita al odio de Meta. Sin embargo, el Consejo considera que la decisión de Meta de eliminar el contenido en el primer caso fue incorrecta, dadas las señales que indican que la publicación de Facebook es en repudio de dos países, no de sus ciudadanos.
Tras revisar la política de lenguaje que incita al odio de Meta, el Consejo recomienda que la empresa se valga cada vez menos de reglas predeterminadas y, en lugar de ello, desarrolle subcategorías más específicas que empleen señales objetivas para minimizar los falsos positivos y negativos a un nivel escalable. Por ejemplo, la empresa debe permitir las acusaciones de criminalidad contra grupos específicos que es probable que representen Estados, gobiernos o sus políticas, como la policía, el ejército, las fuerzas armadas, los soldados, el Gobierno y otros funcionarios del Estado. La empresa también debe permitir comparaciones que mencionan crímenes asociados más habitualmente a agentes del Estado y organizaciones peligrosas, según se definen en la política de personas y organizaciones peligrosas de Meta, en particular atrocidades o graves violaciones de los derechos humanos, como las que figuran en el Estatuto de Roma de la Corte Penal Internacional.
Casos individuales
Para el Consejo, la publicación en el primer caso no infringía la prohibición contra "lenguaje deshumanizante en forma de ataques contra una persona o un grupo de personas" debido a su nacionalidad "con comparaciones, generalizaciones o afirmaciones no aptas basadas en comportamientos en relación con... criminales" en virtud de la norma comunitaria sobre lenguaje que incita al odio de Meta. En un informe que el Consejo encomendó a expertos, se indicó que es muy probable que las referencias a los crímenes cometidos por "rusos" y "estadounidenses" tengan que ver con los Estados o sus respectivas políticas, no con la población de dichos países. Asimismo, la publicación compara a los rusos con los estadounidenses. Dado el rol que tanto Rusia como los Estados Unidos desempeñan en las políticas y relaciones internacionales, la comparación indica que el usuario se refería a los respectivos países, no a los ciudadanos. El Consejo concluyó que la publicación en el primer caso se refiere a los Estados o sus políticas y, por ende, no incluye lenguaje deshumanizante contra personas debido a su nacionalidad en forma de generalizaciones en relación con criminales y debe restaurarse.
El Consejo está de acuerdo con Meta en que el contenido en el segundo y el tercer caso infringe la norma comunitaria sobre lenguaje que incita al odio, ya que estas publicaciones sí incluyen generalizaciones relacionadas con "criminales" dirigidas contra personas en función de su nacionalidad. Es muy probable que las referencias a "all Israelis" ("todos los israelíes") y "all Indians" ("todos los indios") sean contra los israelíes y los indios, no contra los respectivos países o Gobiernos. Asimismo, ninguna de las publicaciones aporta contexto suficiente para concluir que se refieren a un hecho o acontecimiento criminal particular.
Si bien el contenido en el segundo caso se publicó en respuesta a la publicación de Threads de otro usuario que incluía un video en el que se debatía el conflicto entre Gaza e Israel, el término "all" ("todos") en referencia a los israelíes es un fuerte indicio de que este es en contra de la población en general, no solo del Gobierno. Además, si bien el contenido también incluye el término "genocide" ("genocidio"), no hay indicios contextuales que indiquen inequívocamente que la intención del usuario era arremeter contra las medidas o políticas del Estado de Israel, no contra los israelíes en función de su nacionalidad. Algo similar ocurre con el tercer caso en el que tampoco hay contexto: el hecho de que el usuario comente un video de Instagram en el que hay hombres mirando a una mujer indica que probablemente este arremete contra las personas. Los hombres del video no tienen conexión aparente con el Gobierno de la India. Además, no hay indicios de que el usuario estuviera criticando las políticas o medidas del Gobierno respecto de las violaciones. Ante la ausencia de referencias inequívocas que indiquen una crítica al Estado, el Consejo considera justificada la eliminación del contenido en el segundo y tercer caso, conforme a la política de lenguaje que incita al odio.
Problemas más generales
En cuanto a los problemas más generales que suscitan los tres casos, el Consejo reconoce los desafíos que implica distinguir el contenido que critica las medidas y políticas que adopta un Estado de los ataques contra las personas en función de su nacionalidad, en especial durante crisis y conflictos. Por ende, el Consejo considera que Meta debería implementar cambios normativos matizados que permitan proteger y conservar en las plataformas de Meta el discurso político relevante, sin aumentar el riesgo de daños para los grupos que son el blanco de ataques. Según interpreta el Consejo, esto requiere de un enfoque a gran escala que implemente protecciones para evitar consecuencias adversas profundas.
El Consejo recomienda que Meta busque señales específicas, objetivas y comprobables que reduzcan los falsos positivos y negativos en subgrupos de casos importantes. Por ejemplo, y sin pretender dar una lista exhaustiva de dichas señales, el Consejo cree que las acusaciones de criminalidad basadas en la nacionalidad en general deben permitirse cuando su blanco es un grupo específico que probablemente representa a un Estado, como soldados, el ejército, las fuerzas armadas, la policía, el Gobierno u otros funcionarios del Estado.
Otra señal objetiva tiene que ver con la naturaleza del crimen que se atribuye en la publicación en cuestión. Algunos crímenes, en particular atrocidades o graves violaciones de los derechos humanos, como las que figuran en el Estatuto de Roma de la Corte Penal Internacional, se suelen asociar habitualmente con agentes del Estado y organizaciones peligrosas, mientras que otros son casi exclusivamente perpetrados por personas particulares. En consecuencia, las publicaciones que atribuyen el primer tipo de crimen antes mencionado a una nacionalidad, que incluyen también referencias a medidas o políticas del Estado, deben tratarse como un discurso político que critica las acciones de ese Estado y conservarse en la plataforma, mientras que, en el segundo caso, se deberían eliminar.
Asimismo, ciertas señales lingüísticas podrían cumplir una función similar, es decir, permitir distinguir entre declaraciones políticas y lenguaje que incita al odio. Aunque el Consejo reconoce que las inferencias de dichas señales pueden variar de un idioma a otro, este sugiere que la presencia o ausencia de un artículo definido probablemente tenga importancia. Decir "los estadounidenses" cometen crímenes no es lo mismo que decir "todos los estadounidenses" cometen crímenes, ya que el uso del artículo definido puede indicar una referencia a un grupo o una ubicación particular. De modo similar, términos como "todos" constituyen importantes señales que indican que el orador está generalizando sobre todo un grupo de personas, no sobre el país en sí. Estas distinciones pueden variar de un idioma a otro, por lo que las interpretaciones contextuales tienen incluso mayor importancia.
Al mismo tiempo, el Consejo considera como una solución inadecuada desarrollar un marco que esté únicamente disponible para los expertos en políticas de Meta (una regla "solo de escalamiento"), y no para los revisores de contenido a gran escala. En el caso Cautivoen video de las Fuerzas de Apoyo Rápido de Sudán, el Consejo se enteró de que los revisores de Meta que moderan contenido a gran escala "no reciben capacitación ni herramientas para identificar contenido que infringe las reglas solo de escalamiento de la empresa". De manera similar en este caso, Meta le informó al Consejo que las reglas "solo de escalamiento" pueden aplicarse únicamente si el contenido se remite a los equipos solo de escalamiento de Meta, por ejemplo, por medio de socios de confianza o una cobertura de prensa significativa, consultas de los moderadores de contenido sobre tendencias, equipos especializados en la región o expertos internos como el equipo de derechos humanos o el equipo legal de derechos civiles de Meta.
Si bien el Consejo reconoce que este marco solo de escalamiento permitiría a los expertos realizar un análisis del contexto general en una situación de conflicto, los indicios respecto de la intención del usuario y los vínculos con las instituciones del Estado, considera que este enfoque no permitiría distinguir entre publicaciones aceptables y no aceptables en la mayoría de los casos, dado que no se aplicaría a gran escala. De la misma manera, para el Consejo, otra de las alternativas de Meta, que es permitir las comparaciones con criminales basadas en la nacionalidad, no constituye un enfoque lo suficientemente matizado y se correría el riesgo de una aplicación deficiente de políticas respecto de contenido dañino, que es posible que se exacerbe especialmente en momentos de crisis. El Consejo considera esta opción demasiado amplia, ya que se protegería el contenido que ataca a las personas, no a los Estados, sus medidas o políticas.
II. Aplicación de políticas
Meta le explicó al Consejo cuáles son los posibles desafíos de aplicación de políticas asociados con algunas de las alternativas normativas más matizadas que proporcionó, incluidas posibles dificultades con el entrenamiento de los clasificadores para que apliquen excepciones estrictas y la gran complejidad que supone para los revisores que moderan contenido a gran escala. La empresa señaló que, conforme a la política de lenguaje que incita al odio actual, todos los grupos con características protegidas reciben el mismo trato, lo cual permite que los revisores apliquen la política más fácilmente y facilita el entrenamiento de los clasificadores.
En el caso Violencia contra las mujeres, Meta le informó al Consejo que "puede resultar difícil para los revisores de contenido a gran escala distinguir entre afirmaciones aptas y no aptas basadas en comportamientos sin tener en cuenta un análisis detallado del contexto". En el caso Convocatoria a protesta de mujeres en Cuba, Meta afirmó que, dado lo complejo que es determinar la intención a gran escala, sus pautas internas les indican a los revisores que eliminen de manera predeterminada las afirmaciones basadas en comportamientos sobre grupos con características protegidas cuando el usuario no deja claro si la afirmación es apta o no.
Pese a reconocer los desafíos que implica la aplicación de políticas matizadas, el Consejo cree que Meta podría crear listas de agentes y crímenes que es muy probable que hagan referencia a políticas o agentes del Estado, no a personas. Por ejemplo, la lista podría incluir referencias a la policía, las fuerzas armadas, el ejército, el Gobierno y otros funcionarios del Estado. En cuanto al contenido que incluye fotos y videos, Meta puede indicarles a los revisores que tengan en cuenta los indicios visuales que este contiene. Por ejemplo, el contenido que muestra personas con prendas militares junto con generalizaciones sobre criminalidad puede indicar que la intención del usuario es ir contra las medidas o los agentes del Estado, no generalizar o comparar personas con criminales.
Asimismo, el Consejo manifiesta que algunos crímenes suelen ser cometidos por agentes del Estado y organizaciones peligrosas, o se suelen atribuir a ellos, lo que podría indicar que la intención del usuario es criticar las medidas de agentes del Estado u organizaciones peligrosas. Al aplicar políticas sobre dicho contenido a gran escala, Meta puede enfocarse en atrocidades o violaciones graves de los derechos humanos, como las que se especifican en el Estatuto de Roma de la Corte Penal Internacional.
Ante los desafíos que supone la aplicación de políticas para minimizar falsos positivos y negativos a gran escala, el Consejo recomienda que Meta haga públicos los resultados de las auditorías internas que realiza a fin de evaluar la precisión de la revisión manual y el rendimiento de los sistemas automatizados en la aplicación de la política de lenguaje que incita al odio. La empresa debe proporcionar dichos resultados de un modo que permita comparar estas evaluaciones en diversos idiomas o regiones. Esta recomendación concuerda con la recomendación n.º 5 del Consejo de la decisión del caso Síntomas de cáncer de mama y desnudos y la recomendación n.º 6 de la opinión de asesoramiento normativo del caso Referencia a personas peligrosas designadas como "shaheed".
Teniendo en cuenta las complejidades y los matices de las políticas propuestas, el Consejo señala la importancia de brindar pautas detalladas y suficientes a los revisores para garantizar que las políticas se apliquen de forma coherente, de conformidad con la recomendación n.º 1 debajo.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
El Consejo considera que la decisión de Meta de eliminar el contenido en el primer caso no fue coherente con las responsabilidades en materia de derechos humanos de la empresa. La mayoría en el Consejo considera que eliminar el contenido en el segundo y tercer caso fue coherente con el compromiso de Meta con los derechos humanos; sin embargo, una minoría no está de acuerdo.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del ICCPR protege en gran medida la expresión, en materia de política, asuntos públicos y derechos humanos, más la expresión sobre inquietudes políticas o sociales ( observación general n.º 34, párrafos 11 y 12).
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos, en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas, (UNGP) que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó la Relatora Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" ( A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). La Relatora Especial de la ONU sobre la libertad de expresión dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
Para el Consejo, conforme se aplica en este caso, la política de Meta que prohíbe el lenguaje deshumanizante contra las personas en función de su nacionalidad con comparaciones, generalizaciones o afirmaciones no aptas basadas en comportamientos en relación con "criminales" cumple con el principio de legalidad. Si bien las tres publicaciones incluyen generalizaciones sobre acusaciones de criminalidad, el Consejo considera que, en el primer caso, hay contexto suficiente para concluir que el usuario se refería a generalizaciones sobre las medidas o políticas del Estado y el contenido debería haberse restaurado. Sin embargo, el contenido en el segundo y el tercer caso constituye un ataque contra las personas basado en la nacionalidad, lo que infringe la política de lenguaje que incita al odio de Meta.
Además, el Consejo destaca que, como parte de los cambios que Meta realice a la política, las reglas nuevas que se elaboren deben ser claras y accesibles para los usuarios. Por ello, el Consejo insta a Meta a actualizar la política de lenguaje que incita al odio para que refleje tanto los cambios acaecidos a partir de esta decisión como las recomendaciones adoptadas.
En las decisiones de los casos Violencia contra las mujeres,Dibujo animado de Knin y Convocatoria a protesta de mujeres en Cuba, el Consejo determinó que los revisores de contenido deben contar con suficientes oportunidades y recursos para tomar en cuenta indicios contextuales a fin de aplicar las políticas de Meta con precisión. Por este motivo, a fin de garantizar una aplicación de políticas coherente y efectiva, Meta debe brindar pautas claras sobre las nuevas reglas a sus revisores, de conformidad con la recomendación n.º 1 debajo.
II. Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar al menos uno de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los "derechos de los demás". El término "derechos" incluye derechos humanos, según se reconocen en el Pacto y, de forma más general, en la legislación internacional de derechos humanos (observación general n.º 34, párrafo 28). De conformidad con sus decisiones anteriores, el Consejo determinó que la política de lenguaje que incita al odio de Meta, cuyo objetivo es proteger el derecho a la igualdad y la no discriminación de las personas, tiene un fin legítimo amparado por las leyes de derechos humanos internacionales (consulta, por ejemplo, la decisión del caso Dibujo animado de Knin).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
En los PRNU, se indica que las empresas deben llevar a cabo debida diligencia continua respecto de los derechos humanos para evaluar las repercusiones de sus actividades (PRNU 17) y se reconoce que el riesgo de que los derechos humanos se vean perjudicados aumenta en contextos afectados por conflictos (PRNU 7). El Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas de la ONU señaló que las responsabilidades de diligencia de las empresas deben reflejar la mayor complejidad y riesgo de daños existentes en ciertas situaciones (A/75/212, párrafos 41 a 49).
En el caso Bot de Birmania, el Consejo determinó que el "aumento de las responsabilidades de [Meta] no debe originar la eliminación predeterminada, ya que hay mucho en juego, tanto si se conserva contenido dañino como si se elimina contenido que implica poco o ningún riesgo de daño. El Consejo señaló, además, que "si bien la preocupación de Facebook por el lenguaje que incita al odio en Birmania tenía buenos fundamentos, también debe prestar particular atención a no eliminar críticas o expresiones políticas, en este caso, en apoyo de una gobernanza democrática".
Aunque las críticas hacia las normas, las políticas y las medidas de un Estado, en especial en situaciones de crisis y conflictos, son de suma importancia, los ataques basados en la nacionalidad pueden ser particularmente dañinos en el mismo contexto. Las acusaciones de criminalidad contra las personas debido a su nacionalidad pueden someterlas a violencia en la vida real y contribuyen a que aumenten las tensiones entre países en un entorno de conflicto. La mayoría en el Consejo cree que la decisión de Meta de eliminar el contenido en el primer caso no cumple con los principios de necesidad y proporcionalidad, mientras que, en el segundo y el tercer caso, eliminar el contenido resultó necesario y proporcionado. La mayoría considera que, ante la ausencia de indicios contextuales que permitan deducir que los usuarios del segundo y el tercer caso criticaban a los Gobiernos de Israel y la India, respectivamente, ambas eliminaciones estuvieron justificadas. No obstante, la mayoría concluye que sí se observa dicho contexto en el primer caso, por lo que eliminar el contenido no fue una medida necesaria ni proporcionada y se exigió que se restaurara la publicación.
El Consejo reitera que el contexto es clave para evaluar la necesidad y la proporcionalidad (consulta nuestra decisión del caso Manifestaciones en Rusia a favor de Navalny). El Consejo reconoce la importancia y los desafíos que conlleva identificar indicios contextuales en el contenido en sí y tener en cuenta el contexto externo y el "entorno para libertad de expresión" que atañe al contenido publicado (consulta también la decisión del caso Convocatoria a protesta de mujeres en Cuba).
Respecto del contenido en el segundo caso, la mayoría en el Consejo hace hincapié en los informes que manifiestan que, desde el 7 de octubre, las Naciones Unidas, organismos gubernamentales y grupos de apoyo advierten de un aumento del antisemitismo y la islamofobia. La Liga Antidifamación, por ejemplo, informó que, en los Estados Unidos, aumentaron un 361% los incidentes antisemitas tras los ataques del 7 de octubre. En países de toda Europa se advirtió sobre el aumento de delitos de odio, lenguaje que incita al odio y amenazas a las libertades civiles dirigidas a comunidades judías y musulmanas. Al analizar las dificultades de aplicar las políticas de Meta a gran escala, el Consejo previamente había hecho hincapié en que el discurso deshumanizante que consiste en actos o discursos discriminatorios implícitos o explícitos puede contribuir a actos atroces (consulta la decisión del caso Dibujo animado de Knin). En su interpretación de la norma comunitaria sobre lenguaje que incita al odio, el Consejo señaló también que, aún cuando un elemento de contenido específico, aislado, no parezca incitar a la violencia o a la discriminación, durante épocas de alta tensión étnica e intensa violencia, el volumen de dicho contenido probablemente exacerbe la situación. Al menos en dichas circunstancias, una empresa de medios sociales como Meta tiene derecho a tomar medidas más allá de las que tienen a mano los Gobiernos a fin de garantizar que sus plataformas no se empleen para fomentar y motivar odio que genere violencia. Ante la ausencia de referencias claras que indiquen una crítica contra el Estado, una de sus instituciones o sus políticas, la mayoría en el Consejo concluye que el contenido en el segundo caso constituía lenguaje deshumanizante contra todos los israelíes debido a su nacionalidad. Dados los informes que indican un aumento en los incidentes antisemitas, incluidos ataques contra judíos e israelíes por su identidad, es probable que dicho contenido contribuya a daños inminentes en la vida real.
De manera similar, la mayoría en el Consejo apunta a las tensiones actuales entre la India y Pakistán y los informes sobre instancias de violencia en comunidades entre hindúes y musulmanes en la India (consulta la decisión del caso Violencia en una comunidad del estado de Odisha de la India). Por ello, la mayoría considera que eliminar el contenido en el tercer caso era necesario y proporcionado porque el objetivo del ataque son los indios, no el Gobierno de la India, lo que contribuye a un entorno de hostilidad y violencia.
Una minoría en el Consejo no está de acuerdo con la eliminación de la segunda y la tercera publicación. Los principios mundiales de libertad de expresión (que se recogen en el artículo 19 del ICCPR) exigen que los límites en el discurso, incluidas prohibiciones de lenguaje que incita al odio, cumplan los principios de necesidad y proporcionalidad, lo cual entraña una evaluación que indique si es probable o inminente que las publicaciones ocasionen daños en el corto plazo. Esta minoría no está convencida de que eliminar el contenido sea el medio menos invasivo del que dispone Meta para abordar posibles daños en estos casos, ya que hay una amplia gama de herramientas digitales disponibles para tener en cuenta (p. ej., evitar que se compartan publicaciones, degradar contenido, aplicar etiquetas, aplicar bloqueos temporales, etc.). Meta no logró demostrar lo contrario, por lo que no cumplió con el principio de necesidad y proporcionalidad. El Relator Especial indicó que "así como los Estados deben evaluar si una limitación de la libertad de expresión es el enfoque menos restrictivo, también las empresas deben hacer ese tipo de evaluación. En la evaluación, las empresas deben asumir la carga de demostrar públicamente la necesidad y proporcionalidad" (A/74/486, para 51) [se hizo hincapié en ello]. Para la minoría, Meta no pudo demostrar públicamente por qué la eliminación del contenido fue el medio menos invasivo y la mayoría no mostró de forma convincente que se cumplió el principio de necesidad y proporcionalidad en el segundo y el tercer caso.
Si bien la mayoría en el Consejo validó la eliminación de las dos publicaciones infractoras en el segundo y el tercer caso, esta subrayó la importancia de tomar medidas para informar a los usuarios y brindarles herramientas cuando se limita la libertad de expresión. El Consejo resaltó la recomendación n.º 6 en la decisión del caso Manifestaciones en Rusia a favor de Navalny, en respuesta a la cual Meta exploró maneras de notificar a los usuarios de posibles infracciones de las Normas comunitarias antes de que la empresa tome medidas normativas. La empresa informó al Consejo que, cuando sus sistemas automatizados detectan con alto nivel de confianza una posible infracción en el contenido que un usuario está a punto de publicar, Meta puede informarle que dicho contenido podría infringir la política. De este modo, el usuario entenderá mejor las políticas de Meta y tendrá la posibilidad de decidir si elimina el contenido y lo vuelve a publicar luego sin el lenguaje infractor. Meta agregó que, en el período de 12 semanas del 10 de julio al 1 de octubre de 2023, en todos los tipos de notificaciones, la empresa envió a los usuarios más de 100 millones de notificaciones sobre contenidos, de las cuales 17 millones se relacionaban con la norma comunitaria sobre bullying y acoso. En todas las notificaciones, los usuarios optaron por eliminar las publicaciones más del 20% de las veces. El Consejo señaló que toda la información se consolida y se anonimiza para proteger la privacidad de los usuarios y que todas las métricas son estimaciones que se basan en la mejor información disponible actualmente en un punto de tiempo específico. El Consejo considera la implementación de dichas medidas un paso importante en cuanto a informar a los usuarios, brindarles herramientas y ofrecerles más control sobre sus propias experiencias en las plataformas de Meta.
6. La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido en el primer caso y exigió que se restaurara la publicación, y ratificó las decisiones de Meta de eliminar el contenido en el segundo y el tercer caso.
7. Recomendaciones
Política de contenido
1. Meta debe modificar su norma comunitaria sobre lenguaje que incita al odio y agregar la sección marcada como "nuevo" debajo. Esta norma incluiría entonces lo siguiente (u otro texto sustancialmente similar a ese efecto):
"No publiques:
Nivel 1
Contenido dirigido a una persona o un grupo de personas (incluidos todos los grupos, excepto los que se consideran no protegidos y se describen como responsables de crímenes violentos o delitos sexuales, o representan menos de la mitad de un grupo) sobre la base de la condición de inmigrante o las características protegidas antes mencionadas tanto de forma escrita como visual que incluya lenguaje deshumanizante con comparaciones o generalizaciones en relación con criminales:
- Depredadores sexuales
- Criminales violentos
- Otros criminales
[NUEVO] "Excepto cuando los agentes (p. ej., policías, miembros del ejército, soldados, funcionarios del Gobierno o del Estado) o los crímenes (p. ej., atrocidades o violaciones graves de los derechos humanos, conforme se especifican en el Estatuto de Roma de la Corte Penal Internacional) se vinculan a un Estado, no a las personas con base en su nacionalidad".
El Consejo considerará implementada esta recomendación cuando Meta actualice la norma comunitaria sobre lenguaje que incita al odio pública y comparta las pautas específicas actualizadas con sus revisores.
Aplicación de políticas
2. Para mejorar la transparencia en torno a la aplicación de políticas de Meta, Meta debe hacer públicos los resultados de las auditorías internas que realiza para evaluar la precisión de la revisión manual y el rendimiento de los sistemas automatizados en la aplicación de la política de lenguaje que incita al odio. La empresa debe proporcionar dichos resultados de un modo que permita comparar estas evaluaciones en diversos idiomas y regiones.
El Consejo considerará implementada esta recomendación cuando Meta incluya los resultados de las evaluaciones de precisión conforme se indica en la recomendación en su Centro de transparencia y en los informes de cumplimiento de las Normas comunitarias.
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4 y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, un grupo de investigaciones digitales que brinda asesoría en materia de riesgos y servicios de inteligencia sobre amenazas para mitigar los riesgos online, también colaboró en la investigación. Lionbridge Technologies, LLC, con especialistas en más de 50 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas