Decisión de casos múltiples
Asesinato de un candidato a alcalde en México
12 de diciembre de 2024
En cuatro casos de videos que muestran el asesinato del candidato a la alcaldía de un municipio mexicano José Alfredo Cabrera Barrientos, el Consejo hizo hincapié en cómo Meta abordó las publicaciones de manera diferente cuando tres de ellas deberían haberse beneficiado de la concesión de interés periodístico y permanecido en las plataformas.
4 casos incluidos en el paquete
FB-ZZ1PC8GA
Caso sobre personas y organizaciones peligrosas en Facebook
IG-KWS5YL10
Caso sobre personas y organizaciones peligrosas en Instagram
IG-ZZR570SK
Caso sobre personas y organizaciones peligrosas en Instagram
IG-BGIFPMQ2
Caso sobre personas y organizaciones peligrosas en Instagram
Descarga un archivo PDF con la decisión completa del casoaquí.
Resumen
En cuatro casos de videos que muestran el asesinato del candidato a la alcaldía de un municipio mexicano José Alfredo Cabrera Barrientos, el Consejo hizo hincapié en cómo Meta abordó las publicaciones de manera diferente cuando tres de ellas deberían haberse beneficiado de la concesión de interés periodístico y permanecido en las plataformas. Estas tres publicaciones fueron compartidas por canales de noticias para dar a conocer un asesinato político de cara a las elecciones en México: Meta conservó dos, pero eliminó una. Eliminar dos noticias sobre asuntos de interés público limita el acceso a información fundamental y coarta la libertad de expresión. Esta situación es preocupante dados los riesgos que enfrentan los canales de noticias en México al denunciar la corrupción del Estado y el crimen organizado. Si bien se aplicó de forma desequilibrada la concesión de interés periodístico en estos casos, el Consejo también expresó sus inquietudes respecto de la efectividad de dicha concesión en sí. Para abordar este asunto, el Consejo reitera su reciente recomendación de la decisión del caso Imágenes del ataque terrorista en Moscú, en la que solicita que se haga una excepción respecto de la regla que no permite imágenes de terceros que muestren el momento de un ataque designado contra víctimas visibles. Este enfoque actualizado permitiría garantizar un tratamiento más justo de todos los usuarios.
Información de los casos
En mayo de 2024, canales de noticias de Latinoamérica publicaron o compartieron cuatro contenidos sobre el asesinato de un candidato a la alcaldía del estado mexicano de Guerrero. Las cuatro publicaciones incluían videos similares que mostraban a José Alfredo Cabrera Barrientos en el recorrido de campaña antes de que se lo apunte con un arma, seguido por imágenes borrosas y sonidos de disparos.
Los dos primeros casos tienen que ver con publicaciones compartidas por importantes organizaciones de noticias. La descripción de la primera publicación indica la cantidad de candidatos que fueron asesinados durante el ciclo electoral, mientras que el audio del video incluye una declaración de la fiscalía del Estado en la que explica que Cabrera Barrientos contaba con protección en el momento del asesinato. Se visualizó unas 59.000 veces. La segunda publicación incluye una advertencia sobre la sensibilidad del video y una descripción que detalla la declaración de la gobernadora de Guerrero en repudio del asesinato. Se visualizó más de un millón de veces.
Mientras que Meta designó este asesinato como un acontecimiento violento que infringe la política de personas y organizaciones peligrosas, otra versión del video ya se había agregado al banco de Media Matching Service (MMS), que está programado para eliminar el mismo contenido. En virtud de la política, los usuarios no pueden compartir imágenes de terceros que muestren el momento de un ataque designado contra víctimas visibles. Las dos primeras publicaciones, que el banco de MMS identificó y remitió a expertos en la materia de Meta para que realicen otra revisión, se conservaron en la plataforma pese a infringir las reglas de Meta. Se les otorgó la concesión de interés periodístico, que se brinda ocasionalmente al contenido que Meta decide que es de gran valor para el interés público. Ambas publicaciones permanecen en las plataformas de Meta con una pantalla de advertencia que indica que es contenido perturbador, pero se remitieron al Consejo.
En el tercer y el cuarto caso, los usuarios apelaron la decisión de Meta de eliminar las publicaciones ante el Consejo. La tercera publicación tenía que ver con una instancia del video que se había vuelto a compartir con un mensaje que indicaba que había una versión sin cesura disponible en Telegram. Esta se visualizó 17.000 veces. La cuarta publicación incluía una descripción que describía quién había recibido disparos y resultado herido en la escena. Esta se visualizó 11.000 veces. Luego de que el banco de MMS identificara ambas publicaciones, se eliminaron.
El asesinato de Cabrera Barrientos tuvo lugar el último día de campaña de cara a las elecciones nacionales del 2 de junio en México. Las recientes elecciones del país se caracterizaron por la violencia política, de la que el crimen organizado es parcialmente responsable. Esto condujo a candidatos a bajarse de la candidatura por temor a perder la vida.
Resultados relevantes
Si bien Meta tomó la decisión correcta de conservar las dos primeras publicaciones en sus plataformas como contenido de interés periodístico, el Consejo considera que eliminar la publicación de Instagram en el cuarto caso no fue una decisión acertada. Esta publicación también era de alto valor para el interés público. No había ninguna diferencia concreta que justifique un resultado diferente. Incluso luego de que el Consejo seleccionara el cuarto caso, Meta no logró aplicar la misma concesión periodística porque indicó que esta publicación sensacionalizaba las imágenes al informarles a los usuarios que se había hecho viral. No obstante, este detalle se incluye junto con otra información sobre el tiroteo, incluidos datos sobre la cantidad de muertos, la declaración de la gobernadora y el hecho de que quien disparó murió en el evento. Si bien Cabrera Barrientos se puede ver e identificar, era una figura pública que participaba de un recorrido electoral, lo que reduce las inquietudes respecto de la privacidad, y el valor de interés público pesa más que el riesgo de daños.
En la tercera publicación, que dirigía a los usuarios a un enlace de Telegram donde podían ver una versión gráfica sin censura del video, de un modo que elude la prohibición de Meta de compartir imágenes de terceros de un ataque contra una víctima visible, la mayoría en el Consejo está de acuerdo con Meta en que este contenido supone mayores riesgos para la seguridad y la privacidad, y debería haberse eliminado. Para la mayoría, Meta hizo lo correcto en no aplicar la concesión de interés periodístico, en especial dado que la publicación no incluía otra descripción o comentario que indicara que su propósito era informar a otros o repudiar el asesinato. Una minoría en el Consejo no está de acuerdo, ya que considera que la tercera publicación también debería reunir los requisitos para la concesión de interés periodístico porque es similar a las demás.
Como el Consejo expresó hace poco en su decisión del caso Imágenes del ataque terrorista en Moscú, se pueden compartir imágenes de ataques designados por varios motivos. Aunque a Meta le preocupa que dicho contenido glorifique, respalde o represente actividades de grupos criminales, la regla que no permite a los usuarios compartir imágenes de terceros de ataques designados contra víctimas visibles conduce a que se elimine contenido que supone un riesgo de daños bajo o nulo. De relevancia para estos casos, los expertos señalaron que los grupos criminales en México no suelen usar videos de asesinatos políticos para reclutar adeptos, aunque pueden compartirlos a modo de intimidación. Asimismo, el Consejo no encontró evidencia de estas imágenes grabadas por los agresores o usadas para incitar a que se imite este comportamiento.
Si bien el Consejo considera que se debería haber aplicado la concesión de interés periodístico a la cuarta publicación, hace hincapié en que dicha concesión se emplea con poca frecuencia, ya que Meta no cuenta con suficientes medios para identificar contenido que se pueda beneficiar de ella. En conjunto con varios factores que se deben tener en cuenta a la hora de aplicar esta concesión, esto aumenta los riesgos de que se otorgue de forma aleatoria, en detrimento de los usuarios. Por este motivo, el Consejo cree que al enfoque actual que emplea Meta le favorecería más un cambio en la política de Meta, conforme se puso de manifiesto en la decisión del caso "Imágenes del ataque terrorista en Moscú".
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó las decisiones de Meta en los tres primeros casos. El Consejo anuló la decisión de Meta en el cuarto caso y solicitó que se restaurara la publicación con una pantalla de advertencia que indique que es contenido perturbador.
El Consejo reitera la recomendación que hizo en su reciente decisión del caso "Imágenes del ataque terrorista en Moscú", en la que sugiere a Meta permitir imágenes de terceros de un hecho designado que muestre el momento del ataque contra una víctima visible, pero que no se puede identificar personalmente, con fines periodísticos, para generar conciencia o a modo de repudio, con una pantalla de advertencia que indique que el contenido es perturbador.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Descripción y contexto del caso
El 30 de mayo de 2024, cuatro cuentas diferentes publicaron contenido sobre el asesinato de José Alfredo Cabrera Barrientos, quien se postulaba a la alcaldía del municipio de Coyuca de Benitez en el estado mexicano de Guerrero. Un día antes, durante un recorrido de campaña, el candidato sufrió disparos que acabaron con su vida. Los cuatro contenidos, uno publicado en Facebook y tres publicados en Instagram, habían sido publicados por cuentas de canales de noticias con sede en Latinoamérica o se habían vuelto a compartir de estos canales. Las publicaciones incluían videos similares que mostraban a Cabrera Barrientos saludando a los votantes antes de que se lo apuntara con un arma. Al sonido de varios disparos y gente gritando le siguen imágenes borrosas. Cada publicación incluye una descripción en español que brinda datos sobre el tiroteo.
Meta designó el asesinato de Cabrera Barrientos como un hecho violento que infringe su política de personas y organizaciones peligrosas. Esto significa que, entre otras cuestiones, los usuarios no pueden compartir imágenes de terceros que muestren el momento de un ataque designado contra víctimas visibles. Los expertos en el tema de Meta ya habían evaluado anteriormente otra versión del video como infractora y la habían agregado al banco de Media Matching Service (MMS), herramienta programada para eliminar este contenido.
La primera publicación fue compartida por una importante organización de noticias e incluye una descripción que afirma que se asesinó a 23 candidatos a cargos políticos durante el ciclo electoral actual en México. El audio que acompaña a las imágenes brinda más detalles, incluida una declaración de la fiscalía del Estado que explica que el atacante había muerto en el lugar del hecho y que Cabrera Barrientos contaba con protección en el momento del asesinato. La publicación se visualizó unas 59.000 veces.
La segunda publicación, compartida también por una importante organización de noticias, incluye una advertencia que agregó el usuario, que indica que el video muestra contenido delicado. La descripción detalla una declaración de la gobernadora de Guerrero, en la que repudia el asesinato y expresa sus condolencias a la familia. Se visualizó más de un millón de veces.
Meta remitió estas dos publicaciones al Consejo. Luego de que un banco de MMS programado para eliminar automáticamente este contenido las identificara, las publicaciones se remitieron a expertos en el tema de Meta para someterse a una revisión adicional. Anteriormente, el Consejo había descrito sistemas en los que puede ocurrir este tipo de remisión (consulta, por ejemplo, la opinión de asesoramiento normativo de Meta respecto del programa de verificación cruzada). Los expertos en el tema determinaron que las publicaciones infringían la política de personas y organizaciones peligrosas. No obstante, les otorgaron la concesión de interés periodístico para que se las conserve en la plataforma debido a su valor para el interés público. Por ende, estas permanecieron allí con una pantalla de advertencia que indicaba que el contenido era perturbador y una etiqueta de interés periodístico.
En el tercer caso, un usuario compartió contenido de una organización de noticias diferente, pero sin agregarle información alguna. El video compartido captura los momentos del candidato antes del asesinato, incluido cuando alguien le apunta con un arma. La descripción brinda información sobre el asesinato sin otro contexto. El video incluye un mensaje, que se reitera en la descripción, en el que se les informa a los usuarios que hay una versión "sin censura" disponible en Telegram. Se visualizó unas 17.000 veces.
La cuarta publicación fue compartida por una organización de noticias e incluye una descripción que señala que uno de los atacantes recibió un disparo en la escena y que, además del candidato, otras tres personas resultaron heridas. Se visualizó unas 11.000 veces. Luego de que el banco de MMS identificara estas publicaciones, se eliminaron. Los usuarios de ambos casos presentaron una apelación al Consejo.
El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó.
José Alfredo Cabrera Barrientos era candidato a la alcaldía de Coyuca de Benitez y pertenecía a una coalición de los partidos opositores Partido Acción Nacional (PAN), Partido Revolucionario Institucional (PRI) y Partido de la Revolución Democrática (PRD). Su asesinato tuvo lugar el último día de campaña de cara a las elecciones nacionales del 2 de junio de 2024. En ese momento, Cabrera Barrientos contaba con medidas de protección especiales y un equipo de seguridad. Los informes, incluidas la primera y la cuarta publicación en estos casos, indicaban que un atacante recibió un disparo y murió en la escena. Se detuvo al menos a otra persona que se sospechaba que había participado en el hecho, cuyo cuerpo se encontró más adelante sin vida donde se encontraba detenida.
Este asesinato tuvo lugar en un contexto más generalizado de violencia política en México. Durante el ciclo electoral de 2018, el crimen organizado fue presuntamente responsable de aproximadamente la mitad de la violencia política, dado que "los políticos o candidatos a cargos políticos se identifican como rivales cuando no cooperan con los grupos criminales, lo que los puede transformar en blanco de asesinatos o amenazas".
Durante el ciclo electoral de 2021, las Naciones Unidas (ONU) y expertos regionales en derechos humanos denunciaron 250 asesinatos políticos en el período preelectoral y de campaña en México. Dichos expertos señalaron, además, que hubo "al menos 782 ataques por motivos políticos, que van desde amenazas de muerte hasta intentos de asesinato, contra políticos".
Esta violencia provoca intimidación en los candidatos. Según los expertos en derechos humanos de la ONU, en el ciclo electoral de 2021, "muchos candidatos abandonaron la candidatura porque temían por su vida". Expertos regionales e internacionales destacaron, además, el impacto que esto tiene en "el derecho de los ciudadanos de elegir al candidato que deseen". En el ciclo más reciente en 2024, más de 8.000 candidatos a cargos públicos se bajaron presuntamente de su candidatura, cifra mucho más alta en comparación con elecciones anteriores. Se considera el contexto de violencia política como presunto factor que contribuyó a estas bajas. La Comisión Interamericana de Derechos Humanos (CIDH) también repudió la violencia contra los candidatos: "Desde el año pasado, [este organismo] observó con preocupación una serie de hechos de violencia, incluidos asesinatos, amenazas y secuestros, contra precandidatos, candidatos y líderes o activistas de diferentes afiliaciones o movimientos políticos". Según la CIDH, de marzo a mayo de 2024, se asesinó al menos a 15 precandidatos o candidatos, junto a otras nueve personas que expresaron interés en postularse para un cargo o eran candidatos no oficiales.
Según el Comité para la Protección de los Periodistas (CPJ) y la Iniciativa Global contra el Crimen Organizado Transnacional, México es uno de los países más peligrosos del mundo para los periodistas. Según el informe sobre México de 2024 de Freedom House: "Las pandillas amenazan y ejercen violencia contra blogueros y periodistas online que denuncian el crimen organizado. Hubo un aumento de la autocensura y muchos periódicos en áreas violentas evitan publicar noticias sobre el crimen organizado". Periodistas que intentaron denunciar el vínculo entre funcionarios del Gobierno y pandillas criminales fueron asesinados, lo que intensifica el silencio y el temor.
Las pandillas criminales en México presuntamente "son activas en Facebook… [y usan la plataforma para intimidar] a grupos rivales y civiles". Sin embargo, los expertos a los que consultó el Consejo indican que los grupos criminales en México no suelen usar videos de asesinatos políticos como herramienta de reclutamiento, pero pueden compartir imágenes violentas para intimidar a los oponentes, incluidos periodistas.
2. Respuestas de los usuarios
El canal de noticias que publicó el contenido en el segundo caso, que Meta conservó en Instagram como contenido de interés periodístico, presentó una declaración ante el Consejo. La declaración indica que es importante compartir información sobre el asesinato dado el contexto electoral en México. La publicación incluía datos objetivos sobre el asesinato y daba cuenta de la declaración que emitió la gobernadora de Guerrero. Los usuarios que publicaron el contenido en el tercer y el cuarto caso apelaron la decisión de eliminación de Meta ante el Consejo. En sus declaraciones ante el Consejo, afirmaron que están difundiendo noticias importantes sobre violencia y terrorismo. Ambos expresaron frustración por la censura que sufrieron.
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
Norma comunitaria sobre personas y organizaciones peligrosas
De acuerdo con las bases de la política de personas y organizaciones peligrosas, para evitar y prevenir daños en la vida real, Meta no permite en sus plataformas la presencia de personas u organizaciones que reivindiquen una misión violenta o cometan actos de violencia. Tampoco permite "contenido que glorifique, apoye o represente hechos que Meta designa como hechos violentos que infringen las normas"; p. ej., "ataques terroristas" o "violencia o intentos de violencia contra varias víctimas". Meta prohíbe: "(1) la glorificación, el apoyo o la representación de los responsables de dichos ataques; (2) contenido generado por los responsables de dichos ataques; o (3) imágenes de terceros que muestren el momento de dichos ataques en víctimas visibles" (se hace hincapié en esto).
De acuerdo con las pautas internas que se otorgan a los revisores, Meta elimina las imágenes que muestran el momento de un ataque en víctimas visibles "sin importar el contexto en que se comparten". Meta no exige que la víctima sea visible al mismo tiempo que ocurre la violencia, siempre que quede claro que dicha violencia se ejerce contra ella, quien se puede ver en algún punto de las imágenes.
Norma comunitaria sobre contenido violento y gráfico
Las bases de la política de contenido violento y gráfico señala que la empresa sabe que las personas "son sensibles en diferentes grados a las imágenes gráficas o violentas". Por ello, Meta elimina la mayor parte del contenido gráfico, mientras que sí permite otro contenido gráfico con una etiqueta de advertencia. En virtud de esta política, se permiten, con una pantalla de advertencia que indique que se trata de "contenido perturbador", "imágenes (videos e imágenes estáticas) que muestran la muerte violenta de una persona (incluida su muerte o el momento posterior) o a una persona que experimenta un suceso fatal". La pantalla de advertencia limita la visibilidad a usuarios mayores de 18 años y no recomienda el contenido a usuarios que no siguen la cuenta. La política prohíbe tales imágenes cuando muestran desmembramiento, vísceras visibles, carbonización o degollación.
Concesión de interés periodístico
En ciertas circunstancias, la empresa permitirá que contenido que infrinja sus políticas permanezca en la plataforma si es "de interés periodístico y si mantenerlo visible es una cuestión de interés público". Al tomar la decisión, "[Meta evaluará] si el contenido pone de manifiesto amenazas inminentes a la salud o la seguridad públicas, o permite que se expresen perspectivas que actualmente se debaten como parte de un proceso político". Según Meta, su análisis se basa en las circunstancias específicas del país, la naturaleza del discurso y la estructura política del país afectado. Meta puede aplicar también una pantalla de advertencia al contenido que conserva conforme a esta concesión y limitar la visualización de usuarios menores de 18 años. Por último, la empresa señala: "Las concesiones de interés periodístico pueden ser 'limitadas', que se aplican a un solo contenido, o 'amplias', que se pueden aplicar más ampliamente a algo como una frase".
II. Respuestas de Meta
Meta designó el asesinato de José Alfredo Cabrera Barrientos como un hecho violento que infringe su política de personas y organizaciones peligrosas tan pronto como ocurrió. Meta determinó que las cuatro publicaciones infringían la política de la empresa que prohíbe "imágenes de terceros que muestren el momento de ataques [designados] en víctimas visibles".
La empresa explicó que suele eliminar dichas imágenes designadas, independientemente del contexto en el que se comparten, por dos motivos principales. El primero motivo es la seguridad. Según la empresa, la eliminación de este contenido ayuda a limitar la imitación de estos comportamientos (comportamientos imitativos) y a evitar la difusión de contenido que pondera a los responsables de los ataques y podría tener un valor de propaganda. El segundo motivo es la privacidad y la dignidad de las víctimas y sus familias. Asimismo, la empresa procura proteger la dignidad de toda víctima y sus seres queridos "que no dieron su consentimiento para ser objeto de la curiosidad pública y la atención de los medios".
La designación de ciertos ataques permite a Meta eliminar contenido con rapidez en virtud de su política de personas y organizaciones peligrosas en sus plataformas en respuesta a acontecimientos clave.
Meta señaló que concede pocas concesiones de interés periodístico a contenido que infringe esta política. Según Meta, dadas las inquietudes que su política busca abordar, estas concesiones suelen tener un alcance acotado y se suelen limitar a imágenes que comparten canales de noticias reconocidos para fines informativos.
En los dos primeros casos, la empresa emitió la concesión de interés periodístico teniendo en cuenta el "amplio alcance nacional" de los dos canales que publicaron el contenido y el hecho de que las imágenes se contextualizaban con descripciones. La empresa evaluó las publicaciones como de alto valor para el interés público, debido a la relevancia que la violencia y la inseguridad asociadas con el ciclo electoral tienen para el debate público. Meta no descartó todos los riesgos debido "a la proximidad del día de las elecciones, en particular los riesgos de que se imiten estos ataques contra otros candidatos en áreas que carecen de seguridad, así como el riesgo potencial de daños a la dignidad de la familia del candidato". No obstante, la empresa consideró el hecho de que las organizaciones de noticias tomaron "medidas editoriales para evitar compartir imágenes de una manera sensacionalista" e "incluyeron descripciones que contextualizaban las imágenes dentro del contexto más general de cómo la violencia y la inseguridad afectaron el ciclo electoral y compartieron información sobre la respuesta oficial de las fuerzas del orden al incidente". La primera publicación no incluye el momento exacto del tiroteo y la segunda incluye su propia pantalla de advertencia.
Cuando Meta otorgó una concesión de interés periodístico "acotada" a estas dos publicaciones, la empresa aplicó una etiqueta (o "tratamiento como información de interés periodístico") para que los usuarios supieran que se permitían para los fines de difusión pública. Asimismo, aplicó una pantalla de advertencia de contenido perturbador, que evita que los usuarios menores de 18 años vean el contenido. Los usuarios que volvieron a compartir estas dos publicaciones concretas también se beneficiaron de la concesión. Ninguna publicación de otras cuentas recibió la concesión de interés periodístico en relación con las imágenes del asesinato.
Todo el otro contenido que el banco de Media Matching Service (MMS) identificó como imágenes infractoras del tiroteo de Cabrera Barrientos se eliminó automáticamente de las plataformas de Meta. Meta configuró el banco de MMS para que elimine el contenido sin imponer una falta, "a fin de garantizar que la aplicación de políticas fuera proporcional, dada la posibilidad de que los usuarios compartieran las imágenes para generar conciencia o repudiar el ataque".
Por lo tanto, el banco de MMS eliminó la tercera y la cuarta publicación sin que se aplique una falta a las cuentas de los usuarios. Una vez que el Consejo remitió a Meta estas dos publicaciones, la empresa confirmó que no ameritaban la concesión de interés periodístico. La tercera y la cuarta publicación no fueron compartidas por "canales de noticias reconocidos, y tampoco contextualizaban el video de la misma manera" como es el caso de la primera y la segunda publicación. Meta advirtió el hecho de que la tercera publicación dirigía a los usuarios a "imágenes sin censura" en Telegram y de que la cuarta publicación hacía hincapié en que las imágenes se habían hecho virales en los medios sociales. Para la empresa, esto equivale a sensacionalizarlas.
Según Meta, la decisión de la empresa de eliminar la tercera y la cuarta publicación fue coherente con las condiciones de legalidad, legitimidad y necesidad y proporcionalidad. En primer lugar, Meta reiteró la necesidad de eliminar de forma general las imágenes que muestran el momento del ataque en el hecho designado, dados los riesgos de que el contenido induzca a la imitación de este comportamiento y promueva la finalidad de los perpetradores. Eliminar el contenido, pero sin aplicar una falta a estos usuarios, fue la medida menos restrictiva para abordar el riesgo de daños.
El Consejo planteó preguntas sobre cuántas concesiones de interés periodístico había otorgado la empresa a las imágenes del asesinato, el estado de las cuentas y las vías por las cuales los usuarios se pueden beneficiar de dicha concesión, si Meta contaba con equipos especializados para abordar los elevados riesgos durante el ciclo electoral y cómo se prepararon dichos equipos. Meta respondió todas las preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió 10 comentarios del público dentro de los plazos de presentación. Siete de los comentarios procedieron de Latinoamérica y el Caribe, dos de los Estados Unidos y Canadá, y uno de Europa. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios abarcaban los siguientes temas: violencia electoral y política durante las elecciones generales de México en 2024; el impacto de la violencia política en los procesos democráticos; cómo Meta debería moderar el contenido y ajustar su política respecto de la difusión de imágenes de terceros sobre hechos violentos infractores; la efectividad de la concesión de interés periodístico; el rol de los medios sociales en cuanto a proporcionar información sobre los procesos electorales; el uso de medios sociales por parte de organizaciones criminales; información general sobre las normas de México que rigen cómo se presenta la violencia política en las noticias; y la importancia de la libertad de expresión en el contexto de las elecciones en dicho país.
5. Análisis del Consejo asesor de contenido
El Consejo seleccionó estos casos para abordar cómo la violencia política se muestra en las plataformas de Meta y su posible impacto en el proceso electoral. Estos casos se enmarcan dentro de la prioridad estratégica del Consejo en materia de elecciones y espacio cívico.
El Consejo analizó la decisión de Meta en estos casos en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de estos casos para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
5.1 Cumplimiento de las políticas de contenido de Meta
I.Reglas de contenido
Las cuatro publicaciones infringen la disposición de la empresa que prohíbe "imágenes de terceros que muestren el momento de ataques [designados] en víctimas visibles". Meta designó el asesinato de José Alfredo Cabrera Barrientos inmediatamente después del hecho el 29 de mayo de 2024. Las cuatro publicaciones incluyen imágenes que muestran a Cabrera Barrientos caminando entre la multitud, así como el momento en que se le apunta con un arma y los instantes inmediatamente posteriores, con el sonido de disparos y gritos. La regla, incluida en la norma comunitaria sobre personas y organizaciones peligrosas y que se explaya en las pautas internas de Meta, prohíbe dichas imágenes, independientemente del contexto en el que se comparten.
Meta tomó la decisión correcta de conservar las dos primeras publicaciones en sus plataformas como contenido de interés periodístico y aplicar una pantalla de advertencia de contenido perturbador y una etiqueta de interés periodístico. En virtud de sus políticas, Meta también debería haber permitido que la cuarta publicación permaneciera en Instagram debido a su valor para el interés público. No había ninguna diferencia concreta entre estas publicaciones que justifique un resultado diferente. Luego de que el Consejo seleccionara este caso, y pese a que el contenido se había sometido a la revisión de expertos en el tema con autoridad para determinar las concesiones de interés periodístico (u otras medidas aplicadas solo en el escalamiento), Meta no logró corregir este trato diferencial. Esto atenta contra el principio que exige tratar a todos los usuarios con equidad.
El contenido en estas tres publicaciones muestra un tiroteo en un evento de campaña de un ciclo electoral durante el cual el tema central era la violencia política. La primera, la segunda y la cuarta publicación brindaban información sobre el tiroteo, incluida la cifra de muertos y las declaraciones que había emitido la gobernadora en respuesta a los hechos. El Consejo no está de acuerdo con Meta en que la cuarta publicación sensacionaliza las imágenes porque informa a los usuarios que se hizo viral en los medios sociales. En lugar de generar sensacionalismo, destaca la importancia de la publicación para el público. Esa información se incluye junto con otros detalles relevantes sobre la cantidad de fallecidos, incluido que el atacante fue abatido en la escena, y la declaración que emitió la gobernadora de Guerrero.
Cuando los periodistas limitan la cobertura de acontecimientos clave, como el asesinato de un político, se restringe el acceso del público a información fundamental. Dados los graves riesgos que corren los canales de noticias y el periodismo en México, es indispensable garantizar que se pueda acceder a este tipo de noticias en plataformas online, en especial durante un período electoral. En consecuencia, el Consejo considera las amenazas contra periodistas, y la autocensura que de ella deriva, como contexto relevante en su análisis del interés periodístico.
Asimismo, si bien la víctima se puede ver e identificar totalmente en las imágenes, el hecho de que se trate de una figura pública atenúa las inquietudes de privacidad en este caso. Esta persona se encontraba dando un recorrido de campaña público durante las elecciones, no se la mostraba de un modo humillante ni degradante. En cuanto a estas tres publicaciones, el valor para el interés público supera el riesgo de daño.
En lo que respecta a la tercera publicación, la mayoría en el Consejo está de acuerdo con Meta en que el contenido supone mayores riesgos y considera razonable la decisión de Meta de no otorgar la concesión de interés periodístico. El contenido incluye un video del asesinato sin más información o descripción que sugiera que su fin es informar al respecto, generar conciencia o repudiar el ataque.
Por el contrario, el mensaje que se incluye en el video, y se reitera en la descripción, les indica a los usuarios que hay una versión "sin censura" del video disponible en Telegram y proporciona un enlace a esta plataforma. La mayoría en el Consejo considera que la publicación pretende explícitamente eludir la disposición que prohíbe compartir imágenes de terceros de ataques contra víctimas visibles, ya que dirige a los usuarios a contenido infractor en una plataforma externa. Por estos motivos, la mayoría está de acuerdo en que Meta tomó la decisión correcta de no otorgar la concesión de interés periodístico en este caso. Asimismo, en su investigación, el Consejo también verificó que el canal de Telegram del que procede el enlace destaca contenido extremadamente violento, incluidas imágenes de decapitaciones, y, en relación con este caso, imágenes gráficas del asesinato del candidato.
Para una minoría de miembros del Consejo, la tercera publicación, pese a ser similar a las otras, merece también la concesión de interés periodístico. En tanto la decisión de la mayoría se basa en el hecho de que esta publicación incluía un hipervínculo a otra plataforma, la minoría cree que un hipervínculo, por sí mismo, no se debe considerar como una "publicación" del contenido al que remite.
Cuando Meta otorgó la concesión de interés periodístico a las dos primeras publicaciones, la empresa agregó una etiqueta de interés periodístico para informar a los usuarios que estas se permitían para generar conciencia entre el público. El Consejo ya le había recomendado antes a Meta notificar a los usuarios cuando un contenido permanece en la plataforma debido a la aplicación de una concesión de interés periodístico (consulta las decisiones de los casos Manifestaciones en Colombia, recomendación n.º 4, y Video gráfico de Sudán, recomendación n.º 4). El Consejo agradece esta práctica, ya que brinda a las personas un contexto invaluable que explica por qué se admite contenido que infringe las normas en la plataforma.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Para el Consejo, conservar las dos primeras publicaciones, con una pantalla de advertencia y la etiqueta de interés periodístico, y eliminar la tercera publicación constituyeron medidas coherentes con las responsabilidades de Meta con los derechos humanos. No obstante, el Consejo determinó que eliminar la cuarta publicación no fue coherente con dichas responsabilidades de Meta.
Libertad de expresión (artículo 19 del ICCPR)
Las prácticas de moderación de contenido de Meta pueden tener incidencias negativas en el derecho a la libertad de expresión. El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) protege ampliamente este derecho, dada su importancia para el discurso político, y el Comité de Derechos Humanos señaló que también protege la expresión que se puede considerar "profundamente ofensiva" (observación general n.º 34, párrafos 11, 13 y 38). La protección en virtud del artículo 19 es "especialmente elevada" cuando se trata de "debates públicos en sociedades democráticas relacionados con figuras del dominio público y político" (observación general n.º 34, párrafo 34).
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como sobre el enfoque más amplio de la empresa en relación con la gobernanza del contenido. Como indicó el Relator Especial sobre la libertad de opinión y expresión de la ONU, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (observación general n.º 34, párrafo 25). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
Anteriormente, el Consejo había analizado cómo podía Meta estructurar sus reglas sobre eventos designados en la decisión del caso Imágenes del ataque terrorista en Moscú y realizó recomendaciones al respecto. Aquí, el Consejo reitera que, si bien Meta debería mejorar esta política, su regla que prohíbe imágenes de terceros de eventos designados en víctimas visibles es lo suficientemente clara para que los usuarios entiendan que se prohíbe el contenido de esta naturaleza. Las imágenes compartidas en estas publicaciones muestran un tiroteo cuyo blanco es el candidato y que deja un saldo de varias víctimas. La política brinda a los usuarios un aviso lo suficientemente claro para que entiendan que imágenes de este tipo pueden estar designadas.
II. Fin legítimo
La política de personas y organizaciones peligrosas de Meta busca "evitar e impedir que se produzcan daños fuera de internet". En varias decisiones, el Consejo determinó que esta política tiene como fin legítimo proteger los derechos de los demás, como el derecho a la vida (artículo 6 del ICCPR) y el derecho a la no discriminación y a la igualdad (artículos 2 y 26 del ICCPR), porque abarca organizaciones que promueven el odio, la violencia y la discriminación, como así también hechos violentos motivados por el odio. Consulta las decisiones de los casos Referencia a personas peligrosas designadas como "shaheed", Cautivo en video de las Fuerzas de Apoyo Rápido de Sudán, Rehenes secuestrados de Israel y Campaña electoral 2023 en Grecia. Las políticas de Meta también procuran el fin legítimo de proteger el derecho a la privacidad (artículo 17 del ICCPR) de las víctimas identificables y sus familias (consulta la decisión del caso Video tras el ataque en una iglesia de Nigeria).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
El Consejo reconoce que, al desarrollar la política de designación, Meta pecó en favor de la seguridad y la privacidad. Meta explicó que su enfoque normativo actual permite a la empresa eliminar rápidamente contenido por medio de los bancos de MMS, que interrumpen la difusión de propaganda de los perpetradores y pueden limitar la imitación de ciertos comportamientos. Eliminar este contenido también permite proteger la privacidad y dignidad de las víctimas y sus familias cuando las víctimas son visibles. Como expresó hace poco el Consejo en la decisión del caso "Imágenes del ataque terrorista en Moscú", una regla más acotada supone el riesgo de una aplicación de políticas deficiente en contenido que muestra hechos violentos. También podría permitir que se reutilicen imágenes para fines dañinos que a Meta pueden resultarles difíciles de detectar y eliminar. En algunos contextos, los riesgos de incitación o reutilización de dichas imágenes justifican inclinarse en favor de la seguridad.
Sin embargo, el Consejo destacó también en su decisión del caso "Imágenes del ataque terrorista en Moscú" que las imágenes de ataques designados pueden resultar útiles para varios fines. No todo el contenido que muestra un ataque designado, como en tres de estos casos, lo hace para glorificar, respaldar o representar actividades de grupos criminales. Dicho contenido no siempre genera los resultados que Meta intenta evitar. Las políticas que priorizan la aplicación excesiva de normas, independientemente del contexto, suponen riesgos para la libertad de expresión, el acceso a información y la participación del público. Esta regla sí conduce a que se elimine contenido con riesgo bajo o sin riesgo de daños.
Para abordar la posible aplicación excesiva de normas, Meta cuenta con varias herramientas normativas. Tres de estas tienen especial relevancia aquí, aunque también hay otras. En primer lugar, se puede eliminar contenido sin aplicar faltas u otras penalizaciones que podrían restringir al usuario. No aplicar faltas en contenido sobre el cual los bancos de MMS tomaron medidas mitiga el riesgo de limitar el acceso de los usuarios a través de la restricción de funciones o la suspensión de cuentas, y sirve como una importante herramienta para garantizar la proporcionalidad.
En segundo lugar, Meta puede aplicar también las concesiones de interés periodístico para permitir contenido designado con poco potencial de generar riesgos para la seguridad pública y la dignidad de quienes figuran en él. No obstante, para que la concesión de interés periodístico resulte una medida de mitigación efectiva para paliar la aplicación excesiva de normas, se debe aplicar con eficacia a contenido relevante. En casos anteriores y con la opinión de asesoramiento normativo sobre las verificaciones cruzadas, el Consejo identificó varios obstáculos que dificultan la efectividad de la concesión (consulta la opinión de asesoramiento normativo de Meta respecto del programa de verificación cruzada, así como la decisión de los casos Cautivo en video de las Fuerzas de Apoyo Rápido de Sudán y Video de prisioneros de guerra armenios). La concesión de interés periodístico solo se puede aplicar en el escalamiento, pero no la imponen los moderadores a gran escala. Dado que los moderadores a gran escala de Meta no reciben instrucciones ni cuentan con herramientas para identificar contenido que podría beneficiarse de la concesión de interés periodístico, Meta tiene pocas vías para identificar contenido que se debería tener en cuenta para recibir dicha concesión. Para los canales de noticias, periodistas y otras personas que informan sobre temas de interés público que no están inscritos en el programa de verificación cruzada de Meta ni tienen acceso a los equipos internos de Meta, resultará difícil obtener acceso a aquellas personas dentro de la empresa que tienen poder para analizar y aplicar la concesión de interés periodístico. Asimismo, la decisión de otorgar dicha concesión requiere que se evalúen varios factores para equilibrar el interés público y el daño potencial, lo que conduce a una falta de previsibilidad y a un aumento del riesgo de arbitrariedad en su aplicación, en detrimento de los usuarios.
Como consecuencia, la concesión se aplica muy poco (consulta la decisión del caso Video gráfico de Sudán). Del 1 de junio de 2023 al 1 de junio de 2024, Meta registró 32 concesiones. En estos casos, por ejemplo, dos publicaciones se identificaron y remitieron, mientras que otra no, pese a incluir contenido y contexto similares, lo que socava la equidad en el trato que reciben los usuarios.
El Consejo considera que, en estos casos específicos, dado el contexto en México, no fue necesario ni proporcionado eliminar la primera, la segunda y la cuarta publicación.
Estas publicaciones no incluyen elementos que sugieren riesgos de reclutamiento o incitación a imitar comportamientos. Los expertos a los que consultó el Consejo señalaron que los grupos criminales en México no suelen usar videos de asesinatos políticos para reclutar adeptos, aunque pueden compartir contenido de esta naturaleza a modo de intimidación. El Consejo no encontró evidencia que indique que las imágenes en estos casos hayan sido grabadas por el atacante, o que el atacante o grupos criminales hayan compartido estas publicaciones concretas para incitar a que se imite este comportamiento, difundir propaganda del perpetrador o glorificar sus actos violentos.
Por el contrario, a estas tres publicaciones las compartieron canales de noticias que informaban sobre un asesinato político en un recorrido de campaña días antes de las elecciones próximas. Eliminar noticias sobre asuntos que están en debate y escrutinio público, como la violencia y la respuesta del Estado, limitaría el acceso a información esencial y socavaría la libertad de expresión, con muy poco beneficio para la seguridad. En la decisión del caso "Imágenes del ataque terrorista en Moscú", el Consejo manifestó que las imágenes de ataques suelen evocar reacciones más intensas que las descripciones abstractas. Las imágenes humanizan a las víctimas y suscitan escándalos morales, simpatía, concienciación sobre la violencia y búsqueda de los responsables. Dados los importantes riesgos que enfrentan los canales de noticias y el periodismo en México al difundir noticias sobre la corrupción del Estado y el crimen organizado, limitar su acceso a los medios sociales es especialmente preocupante. Asimismo, como la víctima era una figura pública que participaba en actos públicos y no se la muestra de un modo humillante o degradante, hay intereses de privacidad más limitados.
En estos tres casos, aplicar la pantalla de advertencia de contenido perturbador, conforme a la norma sobre contenido violento y gráfico, es un medio menos restrictivo para proteger los derechos a la seguridad y la privacidad. Cuando Meta aplica una pantalla de advertencia, hay varias consecuencias. Todos los usuarios deben hacer clic en una pantalla para ver el contenido y este no está disponible si los usuarios son menores de 18 años. Asimismo, el contenido luego se elimina de las recomendaciones que se ofrecen a los usuarios que no siguen la cuenta (consulta las decisiones de los casos Hospital Al-Shifa y Rehenes secuestrados de Israel). Estas medidas garantizan que los usuarios menores de edad no queden expuestos al contenido y limitan el alcance a usuarios que lo buscaron.
En cuanto a la tercera publicación, la mayoría en el Consejo considera que el contenido presenta mayores riesgos para la seguridad y la privacidad. En esa publicación, el usuario volvió a compartir contenido de la cuenta de un medio de comunicación con un mensaje que dirigía a los usuarios a una versión "sin censura" del video en Telegram. La mayoría está de acuerdo con Meta en que eliminar la publicación fue una medida necesaria y proporcionada para proteger la seguridad. Como la publicación se compartió junto con un enlace a imágenes gráficas de la muerte de una persona sin descripciones o comentarios adicionales, el usuario no dio indicios claros de que su fin era informar a otras personas o repudiar la violencia. Ante la falta de estos indicios, y el enlace a imágenes sin censura, la publicación claramente sugiere que el usuario buscaba eludir las Normas comunitarias de Meta respecto de personas y organizaciones peligrosas. Una minoría en el Consejo no está de acuerdo con esto y manifiesta que eliminar la tercera publicación no fue necesario ni proporcionado.
Respecto de la proporcionalidad de la respuesta de Meta, el Consejo valora el hecho de que la empresa no aplicara faltas contra los usuarios que publicaron los dos contenidos eliminados y haya determinado que, en algunas circunstancias, no hay necesidad de imponer otras penalizaciones en forma de falta. El Consejo destacó el valor de separar las acciones de aplicación de políticas de Meta sobre contenido de las penalizaciones que se imponen a los usuarios. También reconoce que no aplicar faltas constituye un mecanismo importante para lograr la proporcionalidad (consulta la decisión del caso Video de maquillaje para un matrimonio infantil en Irán), en tanto el requisito de proporcionalidad tome en cuenta la imposición de la restricción en favor no solo de los intereses de otras personas, incluidos oyentes, sino también de los intereses del orador (Relator Especial de la ONU sobre la libertad de expresión, comunicación del Relator Especial n.º USA 6/2017, página 3).
El Consejo analizó estos casos de conformidad con la concesión de interés periodístico, ya que refleja el enfoque normativo actual de Meta respecto de estas publicaciones. No obstante, como se dijo anteriormente, dicha concesión presenta varias limitaciones en cuanto a accesibilidad y previsibilidad. Los comentarios del público pusieron de manifiesto inquietudes similares, así como el temor de que los usuarios se autocensuren para evitar penalizaciones en el nivel de la cuenta (PC-30727 Digital Speech Lab). Por estos motivos, el Consejo considera que la concesión de interés periodístico no es el enfoque más efectivo ni el menos restrictivo del que Meta dispone.
Hace poco el Consejo señaló estas mismas inquietudes respecto de la prohibición de imágenes de terceros que muestran el momento del ataque en víctimas visibles en la decisión del caso "Imágenes del ataque terrorista en Moscú". En esa decisión, se concluyó que la manera más efectiva de proteger la libertad de expresión y, al mismo tiempo, mitigar el daño y el riesgo de que se imiten estos comportamientos sería establecer una excepción dentro de la política. Esta excepción permitiría que se compartan imágenes de terceros de un evento designado que muestran ataques en víctimas visibles si es en un contexto de noticias, repudio o concientización. El contenido debería tener una pantalla de advertencia que indica que es perturbador. Meta está evaluando actualmente esta recomendación.
El Consejo reitera que su enfoque propuesto respetaría más estrictamente los derechos. Para resolver las inquietudes relativas a la seguridad de Meta, la empresa podría solicitar también que los usuarios que publican contenido con el fin de informar, repudiar o generar conciencia dejen claras sus intenciones, tal como ocurre con la política de personas y organizaciones peligrosas. El Consejo señala que Meta define lo que supone generar conciencia en sus pautas como "compartir, debatir o difundir información nueva... para dar a conocer mejor un asunto o brindar más datos sobre un tema que tiene valor para el interés público. La concientización …no debe apuntar a incitar a la violencia o difundir odio o información errónea" (consulta las decisiones de los casos Informe sobre el discurso en el Parlamento pakistaní y Violencia en una comunidad del estado de Odisha de la India). La empresa podría seguir eliminando contenido poco claro o ambiguo, lo que dejaría de lado las inquietudes de seguridad. Meta también podría decidir aplicar la excepción solo en el proceso de escalamiento si se proporcionan protocolos claros para identificar el contenido. Si bien el Consejo expresa constantemente inquietudes sobre la efectividad de las políticas solo del proceso de escalamiento (consulta las decisiones de los casos Cautivo en video de las Fuerzas de Apoyo Rápido de Sudán y Video gráfico de Sudán), considera que es preferible contar con una excepción claramente articulada y específica de una política que se aplique en el proceso de escalamiento que recurrir a la concesión de interés periodístico (consulta la decisión del caso Video de prisioneros de guerra armenios).
En virtud del marco propuesto en la decisión del caso "Imágenes del ataque terrorista en Moscú", se debería haber obtenido el mismo resultado sin necesidad de aplicar la concesión de interés periodístico. La primera, la segunda y la cuarta publicación deberían permanecer en la plataforma como contenido informativo. Dado que la intención detrás de la tercera publicación no era informar, generar conciencia ni mostrar repudio, debería eliminarse. Si bien la decisión del caso "Imágenes del ataque terrorista en Moscú" abordaba imágenes de terceros en las que se muestran víctimas visibles, pero que no se pueden identificar, la víctima en este caso sí se puede identificar. No obstante, dado que se trata de una figura pública en un evento público y no se la muestra de un modo humillante o degradante, los intereses relacionados con la privacidad aquí implicados se reducen de manera similar y el contenido se podría beneficiar de la excepción recomendada.
Si se limita el uso de la concesión de interés periodístico, que se emplea poco y es imprevisible, Meta podría recurrir a una excepción normativa clara para contenido cuyo fin es informar, mostrar repudio o generar conciencia, con lo que trataría a los usuarios de manera más equitativa.
6. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó las decisiones de Meta de conservar la primera y la segunda publicación, y eliminar la tercera.
El Consejo asesor de contenido anuló la decisión de Meta de eliminar la cuarta publicación y solicitó que se restaurara con una pantalla de advertencia que indique que es contenido perturbador.
7. Recomendaciones
Política de contenido
El Consejo asesor de contenido reitera su recomendación anterior en el caso "Imágenes del ataque terrorista en Moscú":
Meta debe permitir imágenes de terceros de un hecho designado que muestre el momento en que se ataca a una víctima visible, pero que no se puede identificar personalmente, en contextos informativos, de repudio o para generar conciencia, con una pantalla de advertencia que indique que el contenido es perturbador (decisión del caso "Imágenes del ataque terrorista en Moscú", recomendación n.º 1).
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
Volver a Decisiones de casos y opiniones consultivas sobre políticas