Decisión de casos múltiples
Publicaciones a favor de los disturbios en el Reino Unido
23 de abril de 2025
Al revisar tres publicaciones diferentes compartidas durante los disturbios en el Reino Unido en el verano de 2024, el Consejo anuló las decisiones originales de Meta de dejarlas publicadas en Facebook. Cada una generaba un riesgo de daños probables e inminentes durante un período de ira contagiosa y creciente violencia.
3 casos incluidos en el paquete
FB-9IQK53AU
Caso sobre las en Facebook
FB-EAJQEE0E
Caso sobre las en Facebook
FB-93YJ4A6J
Caso sobre las en Facebook
Resumen
Al revisar tres publicaciones diferentes compartidas durante los disturbios en el Reino Unido en el verano de 2024, el Consejo anuló las decisiones originales de Meta de dejarlas publicadas en Facebook. Cada una generaba un riesgo de daños probables e inminentes. Debieron haberse eliminado. El contenido se publicó durante un período de ira contagiosa y creciente violencia, alimentado por desinformación e información errónea en los medios sociales. El sentimiento antimusulmán y antiinmigrante se extendió a las calles. Meta activó el protocolo de la política de crisis (CPP) en respuesta a los disturbios y, posteriormente, identificó al Reino Unido como un lugar de alto riesgo el 6 de agosto. Estas acciones llegaron demasiado tarde. Para entonces, las tres publicaciones ya se habían realizado. Al Consejo le preocupa que Meta haya tardado demasiado en implementar medidas de crisis y señala que esto debió hacerse de forma inmediata para interrumpir la amplificación de contenido dañino.
Nota adicional: Las modificaciones del 7 de enero de 2025 realizadas por Meta a la, ahora renombrada, política sobre conducta que incita al odio no cambiaron el resultado en estos casos, aunque el Consejo tuvo en cuenta las reglas vigentes al momento de la publicación, así como las actualizaciones posteriores durante la deliberación. En cuanto a los cambios más amplios en políticas y su aplicación anunciados apresuradamente por Meta en enero, al Consejo le preocupa que Meta no haya compartido públicamente si antes realizó, o no, una debida diligencia en materia de derechos humanos conforme a sus compromisos en el marco de los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. Es fundamental que Meta garantice la identificación y prevención de cualquier impacto negativo sobre los derechos humanos en el mundo.
Información de los casos
En el primer caso, una publicación de solo texto compartida al comienzo de los disturbios llamaba a destruir mezquitas e incendiar los edificios donde viven "migrants" (migrantes), "terrorists" (terroristas) y "scum" (escoria). Esta publicación tuvo más de 1.000 visualizaciones.
Los casos segundo y tercero implican la republicación de imágenes probablemente generadas con IA. Una de ellas mostraba a un hombre gigante con una camiseta de la bandera del Reino Unido persiguiendo de forma amenazante a hombres musulmanes más pequeños. Sobre la imagen había texto con la hora y el lugar para reunirse en una de las protestas e incluía el hashtag "EnoughIsEnough" (Ya basta), mientras que el pie de foto decía: "Here we go again" (Aquí vamos de nuevo). Esta publicación tuvo menos de 1.000 visualizaciones. La otra imagen mostraba a cuatro hombres musulmanes corriendo frente al Parlamento británico tras un pequeño niño rubio llorando. Uno de los hombres agitaba un cuchillo mientras un avión volaba hacia el Big Ben. Esta imagen incluía el logotipo de una cuenta influyente en los medios sociales, conocida por su discurso antiinmigrante en Europa, que incluye desinformación e información errónea. Esta imagen tuvo más de 1.000 visualizaciones.
Otros usuarios de Facebook reportaron las tres publicaciones por lenguaje que incita al odio o violencia. Meta decidió mantenerlas publicadas tras revisarlas únicamente con sus sistemas automáticos. Luego de que los usuarios apelaran ante el Consejo y se seleccionaran estos casos, el contenido fue revisado por personas, y Meta eliminó la publicación de solo texto del primer caso. La empresa confirmó su decisión original de mantener las dos imágenes que probablemente se generaron con IA.
Entre el 30 de julio y el 7 de agosto de 2024, estallaron disturbios violentos en el Reino Unido tras el asesinato de tres niñas en la ciudad de Southport. Poco después de este ataque con cuchillo, comenzó a circular en los medios sociales desinformación e información errónea que afirmaban falsamente que el autor era musulmán y solicitante de asilo.
Conclusiones principales
El Consejo concluyó que la publicación de solo texto y la imagen del hombre gigante infringen la política de violencia e Incitación, que prohíbe amenazas de violencia de gravedad alta contra un objetivo, o amenazas de violencia contra personas o grupos en función de características protegidas y condición de inmigrante. La publicación de texto contiene una amenaza general e incitación a la violencia contra personas y propiedades, además de señalar como objetivos a individuos según su religión y condición de inmigrante. La imagen del hombre gigante es un llamado evidente a reunirse y cometer actos de violencia discriminatoria en un lugar y momento determinados. La conclusión de Meta de que esta imagen (un hombre agresivo persiguiendo a hombres musulmanes huyendo, junto con una hora, lugar y el hashtag "EnoughIsEnough" [Ya basta]) no contiene ni objetivos ni amenazas carece de credibilidad. Este contenido se compartió el 4 de agosto, cuando ya había comenzado la semana de disturbios. Para entonces, ya había suficiente contexto como para justificar su eliminación.
La imagen generada con IA que mostraba a cuatro hombres musulmanes persiguiendo a un pequeño niño rubio llorando infringe la política de conducta que incita al odio (anteriormente llamada política de lenguaje que incita al odio), que prohíbe atacar a las personas según características protegidas, incluido acusarlas de delitos graves. Meta interpretó esta publicación como una afirmación apta en formato visual al referirse específicamente a "el(los) hombre(s) musulmán(es) que fue(ron) acusado(s) erróneamente de apuñalar a las niñas en Southport". Antes del 7 de enero, las pautas internas de Meta establecían que estaban permitidas las afirmaciones aptas que evitaran generalizar a todos los miembros de un grupo como criminales. El Consejo no está de acuerdo con la aplicación de esta regla en este caso y señala que la imagen no representa una afirmación apta, ya que no muestra el apuñalamiento en Southport de ninguna manera. Está ambientada en Londres (no en Southport), incluye a cuatro hombres (no uno) persiguiendo a un niño pequeño (no tres niñas) y un avión volando hacia el Big Ben, lo que recuerda a las imágenes del 11 de septiembre y retrata a los musulmanes como una amenaza para el Reino Unido.
Durante la revisión de estos casos, el Consejo observó problemas de claridad tanto en la política de violencia e incitación como en la de conducta que incita al odio, causados por discrepancias entre el lenguaje público y las pautas internas. El Consejo también manifiesta una fuerte preocupación por la capacidad de Meta para moderar de forma precisa imágenes de odio y violencia. El hecho de que los expertos de Meta no hayan identificado infracciones en las dos imágenes probablemente generadas con IA indica que las pautas actuales para los revisores son demasiado estructuradas, ignoran cómo funcionan las imágenes visuales y están desactualizadas.
Por último, el Consejo señala que Meta recurrió a verificadores de datos independientes para revisar algunas publicaciones que incluían el nombre falso del autor del ataque de Southport durante los disturbios, las etiquetó como "falsas" y disminuyó su visibilidad. Teniendo en cuenta que Meta reemplazará su sistema de verificación de datos independiente en los Estados Unidos, el Consejo recomienda que la empresa evalúe la experiencia de otras plataformas que usan notas de la comunidad y estudie su eficacia.
Decisión del Consejo asesor de contenido
El Consejo anuló las decisiones originales de Meta de conservar las tres publicaciones.
Asimismo, el Consejo le recomendó a Meta:
- Especificar que están prohibidas todas las amenazas de violencia de gravedad alta contra lugares, además de personas.
- Desarrollar criterios claros y sólidos para definir qué constituye una acusación de delitos graves basados en características protegidas en formato visual. Estos criterios deben alinearse con las normas existentes sobre conductas que incitan al odio basadas en texto y adaptarlas.
- Revisar los criterios de activación del protocolo de la política de crisis, incluida la identificación de los principales criterios que, al cumplirse, sean suficientes para activar el protocolo de forma inmediata.
- Bajo el protocolo de la política de crisis, asegurar que las posibles infracciones de políticas que puedan derivar en violencia probable e inminente se marquen para revisión manual interna, y que esos revisores proporcionen orientación basada en el contexto en plazos definidos para los revisores a gran escala.
- Realizar evaluaciones continuas sobre la efectividad de las notas de la comunidad, en comparación con la verificación de datos independiente, especialmente en situaciones donde la difusión rápida de información falsa genera riesgos para la seguridad pública.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Descripción y contexto del caso
El Consejo asesor de contenido revisó tres casos de contenido publicado por diferentes usuarios de Facebook durante los disturbios en el Reino Unido entre el 30 de julio y el 7 de agosto de 2024.
Los disturbios ocurrieron tras un ataque con cuchillo en un taller de baile en Southport el 29 de julio, en el que murieron tres niñas y otras diez personas resultaron heridas. Axel Rudakubana, un británico de 17 años, fue arrestado de inmediato y luego condenado por el ataque. Sin embargo, después del incidente, comenzó a circular online desinformación e información errónea sobre su identidad, incluido un nombre falso y afirmaciones erróneas que indicaban que era musulmán y que había solicitado asilo tras llegar al Reino Unido en barco poco tiempo antes. Una de esas publicaciones fue compartida más de seis millones de veces. A pesar de que la policía emitió un comunicado oficial al mediodía del 30 de julio desmintiendo los rumores, se organizaron protestas antiinmigrantes y antimusulmanes en 28 ciudades y localidades, muchas de las cuales se transformaron en disturbios. Estas protestas movilizaron a miles de personas, incluidos grupos antiinmigrantes y antimusulmanes. Además de saqueos y otros disturbios, se atacaron o incendiaron centros para refugiados y hoteles que albergaban inmigrantes, entre tantos otros edificios. La violencia causó muchísimos heridos, incluidos más de 100 policías. El 1 de agosto, una orden judicial levantó el anonimato del atacante de Southport como menor de edad para intentar calmar la situación, pero la medida no tuvo éxito de inmediato.
La primera publicación revisada por el Consejo se compartió dos días después de los asesinatos. Apoyaba los disturbios en curso y llamaba a destruir mezquitas e incendiar los edificios donde vivían "migrants" (migrantes) "terrorists" (terroristas) y "scum" (escoria). Reconocía que los disturbios habían dañado propiedad privada y herido a policías, pero argumentaba que esa violencia era necesaria para que las autoridades escucharan y detuvieran "all the scum coming into Britain" (a toda la escoria que entra a Gran Bretaña). La publicación instaba a quienes se oponían a los disturbios a pensar en el asesinato de las "little girls" (niñitas) y advertía que no serían "the last victims" (las últimas víctimas) si la sociedad no actuaba. Esta publicación tuvo más de 1.000 visualizaciones y menos de 50 comentarios.
La segunda publicación se realizó seis días después del ataque y compartía una publicación anterior. Contenía lo que parecía ser una imagen generada con IA de un hombre blanco gigante, enojado y agresivo, con una camiseta de la bandera del Reino Unido, persiguiendo de forma amenazante a varios hombres musulmanes más pequeños que huían. La imagen estaba acompañada por la siguiente descripción: "Here we go again" (Aquí vamos de nuevo). Incluía texto superpuesto que indicaba la hora y el lugar de una protesta en Newcastle el 10 de agosto, junto con el hashtag "EnoughIsEnough" (Ya basta). Este contenido tuvo menos de 1.000 visualizaciones.
La tercera publicación, compartida dos días después del ataque, es un repost de otra imagen, probablemente también generada con IA. En ella, cuatro hombres musulmanes con barba y kurtas blancas (túnicas) corrían frente al Parlamento en Londres persiguiendo a un pequeño niño rubio que lloraba y tenía puesta una camiseta con la bandera del Reino Unido. Uno de los hombres tenía un cuchillo. Un avión volaba hacia el Big Ben, en una aparente referencia a los atentados del 11 de septiembre de 2001 en Nueva York. La descripción incluía las palabras "Wake up" (Despiértense) y el logotipo de una cuenta influyente en los medios sociales, conocida por su discurso antiinmigrante en Europa, que incluye desinformación e información errónea. Esta publicación tuvo más de 1.000 visualizaciones y menos de 50 comentarios.
Usuarios de Facebook reportaron las tres publicaciones por infracciones de la política de lenguaje que incita al odio (ahora llamada política de conducta que incita al odio) o la política de violencia e incitación. Las herramientas automáticas de Meta consideraron que ninguna de las tres publicaciones infringía sus políticas, por lo que se conservaron. Cuando los usuarios apelaron ante Meta, los sistemas automáticos de la empresa confirmaron la decisión de mantener el contenido publicado. La primera vez que seres humanos revisaron una de estas publicaciones fue cuando el Consejo seleccionó estos casos. Luego, Meta revirtió su decisión y eliminó la publicación de solo texto por infringir la política de violencia e incitación, pero confirmó sus decisiones originales respecto a las otras dos publicaciones.
El 7 de enero de 2025, Meta anunció modificaciones a su política de lenguaje que incita al odio y cambió su nombre a política de conducta que incida al odio. Estos cambios, en la medida que sean relevantes para estos casos, se describirán en la sección 3 y se analizarán en la sección 5. El Consejo señala que se puede acceder al contenido en las plataformas de Meta de forma continua y que las políticas actualizadas se aplican a todo el contenido presente en la plataforma, sin importar su fecha de publicación. Por lo tanto, el Consejo evalúa la aplicación de las políticas existentes al momento de la publicación y, cuando corresponde, según revisiones posteriores (ver también el enfoque adoptado en el caso Negación del Holocausto).
2.Respuestas de los usuarios
Ninguno de los usuarios que publicó el contenido en estos casos respondió la invitación a enviar una declaración al Consejo.
Los usuarios que reportaron las publicaciones sí presentaron declaraciones ante el Consejo, en las que afirmaron que las publicaciones claramente animaban a las personas a asistir a protestas racistas, incitaban a la violencia contra inmigrantes y musulmanes, o motivaban a simpatizantes de la extrema derecha a continuar con los disturbios. Uno de los usuarios señaló que era inmigrante y que se sintió amenazado por la publicación que estaba apelando.
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
Violencia e incitación
Las bases de la política de violencia e incitación de Meta establecen que la empresa elimina "el lenguaje que incita o da lugar a actos de violencia y amenazas creíbles a la seguridad pública o personal". Esto incluye "incitación a la violencia dirigida a una persona o un grupo de personas sobre la base de sus características protegidas o su condición de inmigrante". También establece que Meta tiene en cuenta "el lenguaje y el contexto para distinguir afirmaciones casuales o de concientización de contenido que constituya una amenaza creíble a la seguridad pública o privada".
La política establece que se protege a todas las personas frente a "amenazas de violencia que podrían llevar a la muerte (u otras formas de violencia de gravedad alta)" y "amenazas de violencia que podrían ocasionar lesiones graves (violencia de gravedad media)". Las pautas internas de Meta a los moderadores mencionan que esta protección también se extiende a ataques contra lugares que pueden causar la muerte o lesiones graves de personas. Esto incluye la incitación a incendiar o atacar un lugar. La política no requiere que los moderadores confirmen que haya personas dentro del edificio.
La política define amenazas de violencia como "frases o imágenes que representan una intención, aspiración o llamada a cometer actos de violencia contra un objetivo. Pueden expresarse amenazas con frases de diversos tipos, como declaraciones de intención, llamadas a la acción, dichos en defensa de una causa, expresiones de esperanza o deseo, y afirmaciones condicionales".
Conducta que incita al odio (anteriormente denominado "lenguaje que incita al odio")
Meta define la "conducta que incita al odio" de la misma manera que antes definía el "lenguaje que incita al odio", como un "ataque directo a las personas" en función de características protegidas como raza, etnia, religión o nacionalidad. La política luego establece que protege a "los refugiados, migrantes, inmigrantes y solicitantes de asilo" según el nivel 1 de la política, que aborda los ataques más graves para Meta. Sin embargo, no están protegidos en el nivel 2 para permitir "los comentarios y las críticas relacionados con las políticas de inmigración". Según las bases de la política, esto se debe a que, en ocasiones, las personas "incitan a la exclusión o usan lenguaje insultante en el contexto de debates sobre temas políticos o religiosos, como cuando se debate... la inmigración". Meta establece explícitamente que sus "políticas se diseñaron para brindar espacio a este tipo de discursos".
El nivel 1 de la política prohíbe los ataques directos contra personas en función de una característica protegida o la condición de inmigrante con "acusaciones de criminalidad o inmoralidad grave" y menciona como ejemplos a criminales violentos ("terroristas", "asesinos").
Antes del 7 de enero, las pautas internas de Meta para los moderadores permitían las "afirmaciones basadas en comportamientos aptas", lo que las diferenciaba de las generalizaciones prohibidas, incluidas las afirmaciones basadas en comportamientos no aptas con acusaciones de delitos graves. Las afirmaciones basadas en comportamientos aptas describen acciones que individuos o grupos realizaron o su participación en acontecimientos mencionando sus características protegidas o condición de inmigrantes. Las generalizaciones prohibidas atribuyen rasgos inherentes a todos o la mayoría de los integrantes de un grupo (como decir que "son asesinos" o que "matan"). Desde el 7 de enero, las pautas de Meta para revisores ya no prohíben las afirmaciones basadas en comportamientos, incluso cuando se refieren a todo un grupo de personas con una característica protegida o se basan en la condición de inmigrante. Es decir que afirmar que un grupo con una característica protegida "mata" sería una afirmación basada en comportamientos que no infringe las normas.
II. Respuestas de Meta
Publicación de solo texto
Meta revirtió su decisión original en este caso y eliminó la publicación por infringir la política de violencia e incitación. Hizo esto porque los llamados a que las personas participaran en disturbios, "smash mosques" (destruyeran mezquitas) y "do damage to buildings" (causaran daños en edificios) donde vivían "migrants" (migrantes) y "terrorists" (terroristas), se consideran "afirmaciones que incitan a la violencia contra un lugar que podrían derivar en la muerte o en lesiones graves".
Publicación del hombre gigante
Meta concluyó que esta publicación no infringía la política de violencia e incitación. Aunque incluía un llamado para que las personas asistieran a un encuentro específico, según Meta, no contenía una amenaza de violencia contra personas ni propiedades. Meta enfatizó que su política, basada en su valor de "expresión", busca proteger el discurso político relacionado con protestas. Por lo tanto, incluso en un contexto de disturbios generalizados, una publicación debe contener una amenaza o un objetivo claro para considerarse una infracción.
Publicación de cuatro hombres musulmanes
Meta determinó que esta publicación no infringía la política de conducta que incita al odio (anteriormente "política de lenguaje que incita al odio"). Mientras que las generalizaciones, como atacar a todos los musulmanes o a la mayoría de ellos y calificarlos de delincuentes violentos se consideraría una infracción, "referirse a las personas musulmanas específicas como criminales violentos", no lo sería. Meta interpretó que esta imagen se refería específicamente a "el(los) hombre(s) musulmán(es) que fue(ron) acusado(s) erróneamente de apuñalar a las niñas en Southport", dada la información falsa que circulaba en ese momento.
Medidas de crisis
En respuesta a las preguntas del Consejo, Meta explicó que activó el protocolo de la política de crisis (CPP) en agosto y designó a todo el Reino Unido como lugar de alto riesgo temporal (THRL) del 6 al 20 de agosto, una vez que se activó el CPP. El THRL es un mecanismo que permite a Meta implementar medidas adicionales de seguridad, como restricciones de contenido adicionales o supervisión proactiva para prevenir la incitación a la violencia en lugares designados como de alto riesgo debido a hechos en el mundo real. Durante este período, Meta eliminó todo el contenido que llamaba a llevar a armas a cualquier lugar del Reino Unido o a ingresar por la fuerza a lugares de alto riesgo. La empresa no estableció un centro de operaciones de integridad del producto (IPOC), que Meta describe como una "medida que reúne a diferentes equipos, expertos en el tema y capacidad de toda la empresa (...) para responder en tiempo real a tendencias o problemas o potenciales".
Verificación de datos independiente
Meta utilizó verificadores de datos independientes para revisar contenido durante los disturbios y evaluar su precisión. En el caso de "varias publicaciones ... que incluían el nombre falso del autor del ataque en Southport" y que fueron calificadas como "falsas", Meta mantuvo el contenido en la plataforma, pero le agregó etiquetas. También eliminó ese contenido de las recomendaciones y lo mostró más abajo en el feed de los usuarios que seguían esa cuenta. Meta afirma que disminuyó la visibilidad de ese tipo de contenido "a las pocas horas de que apareciera en la plataforma". Meta también estableció un grupo de trabajo interno con personas de sus equipos de políticas, operaciones y de comunicación con las autoridades para supervisar la situación y responder a ella.
El Consejo le hizo a Meta 13 preguntas sobre medidas de crisis específicas que se implementaron durante los disturbios en el Reino Unido, incluidas preguntas sobre el papel de los verificadores de datos independientes, detalles sobre las capacidades de los clasificadores de lenguaje que incita al odio, cómo el contexto de los disturbios influyó en el análisis del contenido por parte de Meta, si se disminuyó la visibilidad de alguna de las publicaciones y cuáles eran los riesgos para la libertad de expresión y el acceso a la información derivados de una aplicación excesiva de las políticas. Meta respondió todas estas preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió nueve comentarios del público dentro de los plazos de presentación. Cinco comentarios se enviaron desde Europa, tres desde los Estados Unidos y Canadá, y uno desde Oriente Medio y África del Norte. Debido a que el plazo para comentarios del público concluyó antes del 7 de enero de 2025, ninguno de los comentarios aborda los cambios en las políticas que Meta anunció en esa fecha. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios abarcaban los siguientes temas: el papel de los medios sociales en los disturbios en el Reino Unido en 2024, incluido en la difusión de desinformación y la organización y coordinación de los disturbios; los vínculos entre el discurso antiinmigrantes y antimusulmanes online y la violencia; el uso de imágenes en el lenguaje que incita al odio y la deshumanización; los riesgos para la libertad de expresión derivados de una aplicación excesiva de las políticas; y medidas de moderación previas a la eliminación.
5. Análisis del Consejo asesor de contenido
El Consejo seleccionó estos casos para examinar cómo Meta garantiza la libertad de expresión en los debates sobre inmigración, a la vez que respeta los derechos humanos de los inmigrantes y de las minorías religiosas en un contexto de crisis. Este caso se incluye en las prioridades estratégicas del Consejo para crisis y conflictos y lenguaje que incita al odio contra grupos marginalizados.
El Consejo analizó la decisión de Meta en estos casos en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de estos casos para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
5.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
Publicación de solo texto
El Consejo determinó que esta publicación infringe la política de violencia e incitación de Meta que prohíbe las amenazas creíbles de violencia de gravedad alta contra un objetivo y las amenazas de violencia contra personas o grupos en función de su religión como característica protegida y la condición de inmigrante.
Si bien muchas veces las personas publican online lenguaje violento o amenazante como hipérbole, a modo de broma o sin intenciones serias, el lenguaje y el contexto permiten distinguir las afirmaciones casuales de las amenazas creíbles para la seguridad pública o personal. Esta publicación incitaba explícitamente a las personas a que participaran en disturbios y "smash mosques" (destruyeran mezquitas) y "do damage to buildings" (causaran daños en edificios) donde vivían "migrants" (migrantes) y "terrorists" (terroristas). Esto constituye una clara infracción de la política de violencia e incitación de Meta por dos motivos: primero, por la amenaza general y la incitación a la violencia de gravedad alta contra personas y propiedades; segundo, porque los objetivos están definidos según la religión y condición de inmigrante de las personas. No hay forma de interpretar esta publicación como una afirmación casual o sin intenciones serias. Se publicó el 31 de julio, cuando la violencia ya se estaba expandiendo por el Reino Unido, un día después de que un grupo arrojara piedras y bombas incendiarias contra una mezquita, incendiara un patrullero e hiriera a ocho oficiales de la policía. En las semanas siguientes, se repitieron episodios de violencia similares en distintas partes del país.
Publicación del hombre gigante
El Consejo determinó que esta publicación infringe la política de violencia e incitación de Meta que prohíbe las amenazas de violencia contra personas o grupos en función de su religión como característica protegida y la condición de inmigrante.
El Consejo señala que no había palabras escritas en esta publicación que incitaran a las personas a la violencia de manera directa y expresa. Sin embargo, este contenido demuestra cómo las imágenes, combinadas con referencias violentas escritas menos directas, también pueden constituir una forma inequívoca de incitación.
El texto superpuesto en la imagen especificaba la fecha, la hora y el lugar para que las personas se reunieran en un monumento específico en Newcastle el 10 de agosto. Se publicó tras varios días de disturbios violentos en el país en los que los musulmanes y los inmigrantes eran los objetivos, y en los que las personas ya habían atacado un hotel que albergaba a solicitantes de asilo, incendiado una biblioteca y un centro comunitario, y arrojado botellas y latas a oficiales de la policía. La descripción "Here we go again" (Aquí vamos de nuevo), en combinación con la imagen de un hombre blanco gigante persiguiendo de manera agresiva a hombres de tes marrón más pequeños vestidos con ropa islámica, es un evidente llamado a continuar estos actos de violencia discriminatoria e intimidación a una hora y en un lugar específicos. La afirmación "Enough is Enough" (Ya basta) podría ser, analizada de manera aislada y fuera de contexto, una afirmación política no violenta sobre la inmigración. Sin embargo, se había usado como hashtag para organizar disturbios anteriores y conectar a las personas con ese propósito.
El Consejo determinó que los elementos combinados en esta publicación constituyen una evidente infracción de la política de contenido. La conclusión de Meta de que la imagen no contiene un objetivo o una amenaza es poco creíble y plantea interrogantes sobre por qué la empresa tardó tanto en activar el protocolo de la política de crisis. Para cuando se compartió esta publicación, existía contexto más que suficiente sobre cómo se difundía la información de los disturbios online para asegurar la identificación de los elementos de incitación a la violencia presentes en esta publicación si el contenido de este tipo se hubiera priorizado para su revisión manual y se hubiera proporcionado la orientación apropiada para su interpretación.
Publicación de cuatro hombres musulmanes
El Consejo determinó que el contenido del tercer caso infringe la política de conducta que incita al odio de Meta, que prohíbe las acusaciones de delitos graves hacia un grupo con características protegidas. Los cambios en la política del 7 de enero no modifican esta conclusión.
En este caso, la imagen de hombres musulmanes persiguiendo a un pequeño niño rubio llorando, junto con las imágenes de terrorismo, generaliza que los musulmanes son terroristas y criminales violentos, y los presenta como una amenaza a las personas del Reino Unido, especialmente a los niños.
La imagen es un ejemplo muy claro del uso del recurso de deshumanización para canalizar el sentimiento antiinmigrantes mediante el impulso de estereotipos antimusulmanes. A través de sus elementos, la publicación generaliza a los musulmanes como una amenaza nacional colectiva, los representa como intimidantes y les atribuye de manera falsa criminalidad y violencia como grupo definido por su religión. Al vincular visualmente a los musulmanes con uno de los atentados terroristas más infames de la historia moderna, la imagen sugiere falsamente que todos los musulmanes son terroristas y un peligro para el Reino Unido.
El Consejo no está de acuerdo con la conclusión de Meta de que la imagen era una "afirmación apta", es decir, que la representación de un musulmán con un cuchillo hacía referencia al supuesto autor del ataque en Southport y no a los musulmanes en general. El Consejo considera que, si bien el contenido se publicó en el contexto de la conmoción pública tras los apuñalamientos en Southport y pretende aprovechar las emociones exacerbadas en torno al ataque, no representa visualmente esos eventos. Cuando se publicó la imagen, se sabía que el autor del ataque en Southport actuó solo y no era musulmán, las víctimas eran tres niñas (no un niño pequeño) y los ataques no estaban relacionados con Londres ni con los atentados del 11 de septiembre. Suponer que la representación de cuatro hombres musulmanes podría hacer referencia a ese único atacante es incorrecta. Además, incluso si el contenido mostrara a un solo hombre musulmán, sería ilógico permitir lenguaje que incita al odio apelando a desinformación impulsada, en gran medida, por prejuicios antimusulmanes.
II. Aplicación de políticas
Los dos casos sobre infracciones basadas en imágenes de las políticas de violencia e incitación y conducta que incita al odio de Meta generan preocupación sobre cómo Meta modera el contenido dañino cuando es visual y no por escrito. Anteriormente, el Consejo manifestó preocupaciones similares en Publicación en polaco contra las personas trans, Racismo relacionado con "El planeta de los simios", Montaje de video con memes ofensivos, Caricatura de conspiración de los medios y Dibujos animados de Knin. Esta preocupación es aún mayor en estos casos, ya que demuestran cómo están disminuyendo los obstáculos para crear contenido visual persuasivo con lenguaje que incita al odio e incitación a la violencia gracias al desarrollo de nuevas herramientas de IA. El hecho de que una imagen se haya generado automáticamente no afectará si infringe o no las normas, pero las nuevas herramientas de IA podrían aumentar significativamente la prevalencia de este contenido. Por ello, Meta debe asegurarse de que sus herramientas automáticas estén mejor capacitadas para detectar infracciones visuales y priorizar la revisión manual hasta que la revisión automática sea más confiable.
Al Consejo le preocupa la demora de Meta en activar su protocolo de la política de crisis, un mecanismo que la empresa creó en respuesta a recomendaciones anteriores del Consejo. La empresa demoró casi una semana entera en designar al Reino Unido como lugar de alto riesgo temporal. Como parte de esta medida, Meta implementó prohibiciones temporales en llamados a llevar armas a determinados lugares o a ingresar a ellos por la fuerza.
El Consejo considera que la activación del protocolo de la política de crisis hubiera sido más efectiva si se hubiera hecho de manera oportuna, en las horas y los días críticos posteriores al ataque, cuando la información falsa sobre el atacante se difundió rápidamente online y se usaron los medios sociales para organizar y coordinar actos violentos impulsados por sentimientos racistas, antiinmigrantes y antimusulmanes.
Intervenciones adicionales podrían haber permitido una moderación más rápida, precisa y proactiva del contenido vinculado a los disturbios. Esto podría haber interrumpido la amplificación de contenido dañino y disminuido potencialmente el riesgo de más daños. Se podrían haber implementado herramientas operativas para identificar y revisar contenido potencialmente infractor, buscar palabras clave o hashtags proactivamente en las plataformas y crear equipos regionales especializados. Estos equipos podrían haber proporcionado contexto y orientación adicional a gran escala a los revisores que moderaban contenido relacionado con lenguaje que incita al odio e incitación, incluido en formato visual.
El Consejo enfatiza que la decisión de activar medidas de crisis debe tomarse lo antes posible. Para lograrlo, la empresa debería identificar los principales criterios que, al cumplirse en combinaciones predefinidas o de manera individual, activen el protocolo de forma inmediata. Además, esta evaluación debería repetirse a lo largo de la crisis para asegurar que las medidas implementadas sean apropiadas, efectivas y alineadas con los riesgos en evolución.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
El Consejo determinó que la eliminación de las tres publicaciones, como lo requiere una interpretación adecuada de las políticas de contenido de Meta, también concuerda con las responsabilidades de Meta en materia de derechos humanos.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) establece una amplia protección de la libertad de expresión, incluidas opiniones sobre política, asuntos públicos y derechos humanos (observación general n.° 34, párrafos 11-12). Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes".
El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos, en línea con los Principios Rectores sobre Empresas y Derechos Humanos de las Naciones Unidas (UNGP), que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Conforme al principio n.° 13 de los UNGP, las empresas deben "evitar que sus propias actividades provoquen o contribuyan a provocar consecuencias negativas sobre los derechos humanos" y "tratar de prevenir o mitigar las consecuencias negativas sobre los derechos humanos directamente relacionadas con operaciones, productos o servicios". Como indicó el Relator Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41). Al mismo tiempo, cuando las normas de las empresas difieren de los estándares internacionales, deben explicar y justificar con antelación esa diferencia (ibid., párrafo 48).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
El Consejo determinó que no está claro para los usuarios que la política de violencia e incitación de Meta prohíbe las amenazas contra lugares, además de personas, y señala que, en el contexto de los disturbios en el Reino Unido, muchos lugares fueron atacados por su vinculación con musulmanes, solicitantes de asilo e inmigrantes.
El Consejo determinó que la prohibición establecida en la política de conducta que incita al odio de acusaciones sobre "criminales violentos (incluidos, entre otros, terroristas, asesinos)" es suficientemente clara en relación con la publicación de los cuatro hombres musulmanes. Sin embargo, el intento de Meta de diferenciar las generalizaciones prohibidas sobre cualidades inherentes de todo un grupo de las afirmaciones basadas en comportamientos permitidas que podrían no aplicarse a todo un grupo (es decir, llamar a un grupo "terroristas" o "asesinos" en lugar de decir que ellos "asesinan") genera confusión. Ambas pueden ser generalizaciones deshumanizantes según el contexto en el que se usen, y esta diferenciación en la aplicación de políticas puede generar la percepción de arbitrariedad.
II. Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar uno de los fines legítimos del ICCPR, entre ellos, los "derechos de los demás" y la "protección del orden público" (artículo 19, párrafo 3, ICCPR). Anteriormente, el Consejo sostuvo que la política de violencia e incitación de Meta procura el fin legítimo de proteger el orden público y los derechos de los demás, en particular, el derecho a la vida (ver Mujer iraní confrontada en la calle y Consejo de comunicaciones de Tigray). Además, el Consejo también sostuvo anteriormente que la política de lenguaje que incita al odio (ahora denominado "conducta que incita al odio") de Meta procura proteger la igualdad y la no discriminación, un fin legítimo reconocido por las normas internacionales sobre derechos humanos (ver, por ejemplo, Dibujos animados de Knin y Bot de Birmania). Este sigue siendo el fin legítimo de la política sobre conducta que incita al odio.
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora, deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado y deben guardar proporción con el interés que debe protegerse" (observación general n.° 34, párrafo 34). El Relator Especial sobre la libertad de expresión también destacó que, en los medios sociales, "la magnitud y la complejidad de la lucha contra las expresiones de odio plantean desafíos a largo plazo" (A/HRC/38/35, párrafo 28). No obstante, de acuerdo con el Relator Especial, las empresas deben "demostrar la necesidad y proporcionalidad de cualquier medida que tomen respecto de cierto contenido (como eliminaciones o suspensiones de cuentas)". Se exige a las empresas "evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de sus usuarios" (ibidem, párrafo 41).
El valor de la expresión es particularmente alto cuando se debaten temas de interés público y el derecho a la libertad de expresión es fundamental al evaluar el discurso político y los comentarios sobre asuntos públicos. Las personas tienen el derecho de buscar, recibir y difundir ideas y opiniones de todo tipo, incluidas aquellas que podrían ser controversiales o extremadamente ofensivas (observación general n.° 34, párrafo 11). En la decisión Comentarios de un político sobre cambios demográficos, el Consejo determinó que, aunque controversial, la expresión de esta opinión sobre la inmigración no incluía lenguaje deshumanizante o de odio hacia grupos vulnerables o un llamado a la violencia. Sin embargo, cuando esas condiciones se cumplen, puede justificarse la eliminación del contenido (ver también la decisión sobre críticas a los inmigrantes y las políticas migratorias de la UE).
El Consejo determinó que las tres publicaciones deberían haberse eliminado en virtud de las políticas de Meta, y que su eliminación era necesaria y proporcionada teniendo en cuenta los seis factores que se describen en el Plan de Acción de Rabat (Plan de Acción de Rabat, OHCHR, A/HRC/22/17/Anexo 4, 2013). Estos factores son: el contexto social y político, la categoría del hablante, la intención de incitar a las personas a actuar en contra de un público objetivo, el contenido y la forma del discurso, la extensión de su difusión y la probabilidad e inminencia de causar daño.
- Contexto: los disturbios en curso se caracterizaron por un aumento de la violencia contra grupos específicos. Los disturbios fueron impulsados por desinformación viral en los medios sociales, muchas veces amplificada por cuentas influyentes (ver también el comentario del público enviado por The Institute for Strategic Dialogue, PC-30832). Algunas de estas cuentas estaban vinculadas con grupos e individuos de extrema derecha. Aprovecharon el pico de actividad online para organizar protestas antimusulmanas afuera de la mezquita de Southport y movilizar a las personas para que participaran en ellas. Estas protestas se tornaron violentas, así como muchas de las protestas posteriores, como las de Sunderland, Rotherham y Manchester.
- Contenido y forma: como se describió anteriormente, el contenido de las tres publicaciones, ya sea en formato visual o escrito, se entendería claramente como un llamado a unirse a los disturbios, ya sea directamente o usando lenguaje deshumanizante y de odio hacia los musulmanes y los inmigrantes en medio de disturbios violentos.
- Categoría del hablante, intención y extensión: en el contexto de una alteración grave del orden público, las publicaciones, incluso de personas no influyentes, que incitaban a realizar actos específicos de violencia tenían el potencial de hacerse virales y causar graves daños. La tercera publicación que mostraba a cuatro hombres musulmanes persiguiendo a un niño pequeño, también incluía el logotipo de una cuenta de medios sociales popular. En diciembre de 2024, Radio Free Europe publicó una investigación que documentaba el patrón de la cuenta de difusión de información falsa contra inmigrantes y las medidas que tomaba la cuenta para evitar que se identificara a su(s) propietario(s).
- Probabilidad e inminencia de violencia, discriminación y hostilidad: durante este período y dado que cada una de las publicaciones incitaba a la violencia contra musulmanes e inmigrantes, o la fomentaba, la probabilidad de que una única publicación que incitara al odio generara violencia y disturbios adicionales era significativa. Dado el contexto en el que se compartieron estas publicaciones, medidas menos restrictivas no hubieran sido suficientes para abordar el riesgo probable e inminente de violencia, por lo que su eliminación en virtud de las políticas de Meta era necesaria y proporcionada para su fin legítimo.
Aplicación de políticas
Resulta preocupante que, incluso después de que el Consejo seleccionara estos casos, Meta sostuviera que las dos publicaciones con imágenes generadas con IA no infringían las políticas. Aparentemente, los moderadores (e incluso los equipos de políticas de Meta) usan una lista de comprobación que interpretan de manera demasiado literal para determinar si hay infracciones según la presencia de elementos específicos. Este proceso sería para garantizar coherencia en la aplicación de las políticas. Sin embargo, estas pautas pensadas principalmente para publicaciones de texto no contemplan el funcionamiento de las imágenes y generan una aplicación inconsistente. Esto indica un desafío particular para Meta en relación con sus reglas sobre contenido que atribuye delitos inherentes a grupos con características protegidas, como lo demuestran estos casos. Las pautas actuales para los revisores parecen especialmente obsoletas si se tiene en cuenta que gran parte del contenido en medios sociales se basa en imágenes y videos.
Si bien la coherencia puede ser un indicador importante de la calidad de las moderaciones de Meta, esto no debería priorizarse ante la correcta evaluación del contexto, especialmente en representaciones visuales de incitación y lenguaje que incita al odio. Durante una crisis en rápida evolución, como los disturbios en el Reino Unido, el riesgo real de pérdida de vidas y propiedades es un costo demasiado alto. Actuar con precisión requiere tener criterio y considerar el contexto. Como se mencionó anteriormente, es especialmente importante que el protocolo de la política de crisis de Meta se active rápidamente y que los revisores obtengan pautas específicas para el contexto a fin de asegurar que las políticas de Meta se apliquen correctamente.
El Consejo señala que, en contextos como el de los disturbios en el Reino Unido, no refutar ni corregir la información falsa y no verificada puede ser especialmente peligroso. En un análisis del profesor Marc Owen Jones (especialista en desinformación e información errónea) publicado en un hilo en X el 30 de julio, se explicó que hubo al menos 27 millones de visualizaciones de publicaciones en X que afirmaban o especulaban que el atacante era musulmán, inmigrante, refugiado o extranjero. También señaló que más de 13 millones de visualizaciones correspondían a publicaciones que refutaban estas especulaciones.
Las políticas de Meta sobre información errónea son importantes en este contexto, especialmente la regla sobre la eliminación de "la información errónea o los rumores no verificables cuando, según nuestros socios expertos, es probable que contribuyan directamente al riesgo de violencia o daños físicos inminentes a personas" (ver la decisión Presuntos delitos en Raya Kobo). En el caso de información errónea que no implique un riesgo de violencia o daños físicos inminentes, es posible que se necesiten medidas menos intrusivas que su eliminación, por ejemplo, proporcionar información adicional para corregir afirmaciones falsas. Meta informó al Consejo que los verificadores de datos independientes revisaron "varias publicaciones" que contenían "el nombre falso del autor del ataque en Southport" poco después de que empezara a difundirse, y que las categorizaron como "falsas". Los verificadores de datos tendrían que haber podido hacer esto una vez que las autoridades del Reino Unido emitieron comunicados sobre el nombre falso el 30 de julio. Estas publicaciones se cubrieron con la etiqueta de verificación de datos, se disminuyó su visibilidad "a las pocas horas de aparecer en la plataforma" y se dirigió a los usuarios a un artículo de verificación de datos que corregía la falsedad. Para obtener más información sobre el enfoque de Meta respecto de la verificación de datos, consulta la opinión de asesoramiento normativo Eliminación de información errónea sobre el COVID-19. El Consejo desconoce el porcentaje de contenido falso publicado durante los disturbios en el Reino Unido revisado por verificadores de datos. El Consejo reitera su preocupación por la cantidad limitada de verificadores de datos con los que cuenta Meta y el hecho de que, muchas veces, no se evalúa un volumen significativo del contenido en cola para su revisión.
A medida que Meta avanza en la implementación de su programa de notas de la comunidad (con el que pretende reemplazar la verificación de datos independiente), comenzando por los Estados Unidos, debería analizar la experiencia de otras plataformas que usaron herramientas similares para responder a la información errónea durante los disturbios en el Reino Unido y realizar una investigación más amplia sobre la efectividad de las notas de la comunidad. Por ejemplo, la investigación realizada por Center for Countering Digital Hate (CCDH) de publicaciones realizadas en X de cinco cuentas con alto perfil que difundieron información falsa durante los disturbios en el Reino Unido determinó que esas cuentas obtuvieron 430 millones de visualizaciones. Según el análisis, de las 1.060 publicaciones compartidas por estas cuentas entre el 29 de julio y el 5 de agosto, solo una tenía una nota de la comunidad.
Procesos de debida diligencia respecto de los derechos humanos
Los principios 13, 17(c) y 18 de los Principios Rectores de la ONU exigen que Meta se comprometa a ejercer la diligencia debida respecto de los derechos humanos para los cambios significativos en la aplicación de políticas y el cumplimiento de normas, lo que la empresa normalmente haría a través de su Foro de políticas de productos, lo que incluye la participación con las partes interesadas afectadas. Al Consejo le preocupa que los cambios en la aplicación de políticas y el cumplimiento de normas de Meta del 7 de enero de 2025 fueron anunciados apresuradamente, de una manera que se desvía del procedimiento habitual, sin compartir información pública acerca de qué proceso anterior de diligencia debida respecto de los derechos humanos se llevó a cabo.
Ahora que estos cambios se implementarán en todo el mundo, es importante que Meta garantice que se identifiquen, mitiguen, prevengan y publiquen los efectos adversos que tengan en los derechos humanos. Esto debe incluir un enfoque en cómo los distintos grupos pueden verse afectados de manera diferente, como inmigrantes, refugiados y solicitantes de asilo. En relación con los cambios normativos, la diligencia debida debería tener en cuenta las posibilidades tanto de una aplicación excesiva (Convocatoria a protesta de mujeres en Cuba, Reapropiación de términos árabes) como de una aplicación deficiente ( Negación del Holocausto, Violencia homofóbica en África Occidental, Publicación en polaco contra las personas trans). El Consejo señala la relevancia de la primera recomendación en los casos sobre críticas a los inmigrantes y las políticas migratorias de la UE para abordar estas preocupaciones.
6. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anula las decisiones originales de Meta de conservar las tres publicaciones y requiere que se eliminen la segunda y la tercera.
7. Recomendaciones
Política de contenido
1. Para mejorar la claridad de su norma comunitaria sobre violencia e incitación, Meta debe especificar que están prohibidas todas las amenazas de violencia de gravedad alta contra lugares, además de personas.
El Consejo considerará que se implementó esta recomendación cuando Meta actualice la norma comunitaria sobre violencia e incitación.
Aplicación de políticas
2. Para mejorar la norma comunitaria sobre conducta que incita al odio, Meta debe desarrollar criterios claros y sólidos sobre lo que constituye una acusación de delitos graves basada en características protegidas en formato visual. Estos criterios deberían alinearse con las normas existentes para conducta que incita al odio por escrito para asegurar una aplicación coherente tanto en texto como en imágenes.
El Consejo considerará que se implementó esta recomendación cuando las normas de implementación internas reflejen el cambio propuesto.
3. Para garantizar que Meta responda de forma efectiva y coherente ante crisis, la empresa debe revisar los criterios que estableció para iniciar el protocolo de la política de crisis. Además del enfoque actual, en el que la empresa tiene una lista de condiciones que determinan la activación o no del protocolo, la empresa debe identificar los principales criterios que, al cumplirse, sean suficientes para activar el protocolo de forma inmediata.
El Consejo considerará que se implementó esta recomendación cuando Meta presente al Consejo su nuevo enfoque para la activación del protocolo de la política de crisis y publique los procedimientos en su Centro de transparencia.
4. Para garantizar la aplicación correcta de sus políticas de violencia e incitación y conducta que incita al odio en futuras crisis, el protocolo de la política de crisis de Meta debe asegurarse de marcar para revisión manual potenciales infracciones de las políticas que puedan dar lugar a violencia probable e inminente. Estos revisores deben proporcionar pautas basadas en el contexto en plazos definidos para los revisores a gran escala, incluidas las pautas para infracciones basadas en imágenes.
El Consejo considerará que se implementó esta recomendación cuando Meta comparta documentación sobre este nuevo componente del protocolo de la política de crisis que detalle cómo (1) se marcan infracciones potenciales para revisión manual; (2) se difunden pautas basadas en el contexto y (3) se implementan dichas pautas para los revisores a gran escala.
5. A medida que Meta implementa las notas de la comunidad, debería realizar evaluaciones continuas de su efectividad en comparación con la verificación de datos independiente. Estas evaluaciones deben enfocarse en la velocidad, la precisión y el volumen de las notas o las etiquetas que se aplican en situaciones en las que la rápida difusión de información falsa representa un riesgo para la seguridad pública.
El Consejo considerará que se implementó esta recomendación cuando Meta actualice al Consejo cada seis meses hasta que finalice la implementación y comparta públicamente los resultados de esta evaluación.
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
Volver a Decisiones de casos y opiniones consultivas sobre políticas