Anulado
Música drill británica
El Consejo asesor de contenido anuló la decisión de Meta de eliminar un clip de video de música drill británica de Instagram.
ACTUALIZACIÓN DE ENERO DE 2023:
En este caso, el Consejo asesor de contenido envió una solicitud de libertad de información al Servicio de Policía Metropolitana (MPS), con preguntas sobre la naturaleza y el volumen de las solicitudes que el MPS realizó a empresas de medios sociales, incluida Meta, para que se revisara o eliminara contenido de música drill durante un período de un año. El MPS respondió el 7 de octubre de 2022 y proporcionó cifras de la cantidad de solicitudes que envió, así como de la cantidad que generó eliminaciones. La respuesta del MPS se publicó por completo junto con la decisión, y las cifras proporcionadas fueron incluidas en la decisión del Consejo, que se publicó el 22 de noviembre de 2022. El 4 de enero de 2023, el MPS se puso en contacto con el Consejo para avisarle que había identificado errores en su respuesta, y que los había corregido. Notablemente, corrigió las cifras de la siguiente forma: el total de las solicitudes que la Policía Metropolitana realizó a empresas de medios sociales y servicios de streaming para que se revisara o eliminara contenido entre junio de 2021 y mayo de 2022 en relación con música drill pasó a ser 992 [en lugar de 286]. Además, ahora el MPS confirma que dichas solicitudes generaron 879 eliminaciones [en lugar de 255], de las cuales 28 estaban relacionadas con las plataformas de Meta [en lugar de 21], que generaron 24 eliminaciones [en lugar de 14]. La decisión contiene las cifras originales previas a las correcciones del MPS. Esta actualización no cambia el análisis o la decisión del Consejo asesor de contenido en este caso. La respuesta actualizada de la solicitud de libertad de información se puede encontrar aquí.
Resumen del caso
El Consejo asesor de contenido anuló la decisión de Meta de eliminar un clip de video de música drill británica de Instagram. Originalmente, Meta eliminó el contenido tras una solicitud de la Policía Metropolitana. Este caso genera inquietudes respecto de las relaciones de Meta con las autoridades policiales, que tienen la capacidad potencial de intensificar el sesgo. El Consejo realizó recomendaciones para favorecer el cumplimiento del procedimiento debido y la transparencia en estas relaciones.
Información sobre el caso
En enero de 2022, una cuenta de Instagram que, según su autodescripción, divulgaba música británica, publicó contenido que destacaba el lanzamiento de la canción de música drill británica "Secrets Not Safe" (Secretos no seguros) de Chinx (OS), incluido un clip del video musical de la canción.
Poco después, la Policía Metropolitana, responsable de las autoridades policiales en el Gran Londres, envió un correo electrónico a Meta en el que solicitaba que la empresa revisara todo el contenido que incluyera "Secrets Not Safe". Meta también recibió contexto adicional de la Policía Metropolitana. De acuerdo con Meta, este incluía información sobre violencia entre pandillas (incluidos asesinatos) en Londres y la preocupación de la Policía de que la canción pudiera generar más violencia a modo de represalia.
Equipos especialistas de Meta revisaron el contenido. Con base en el contexto que proporcionó la Policía Metropolitana, se determinó que incluía una "amenaza velada" al hacer referencia a un tiroteo ocurrido en 2017, lo que podría propiciar más violencia. La empresa eliminó el contenido de la cuenta en revisión por infringir su política sobre violencia e incitación. También eliminó 52 contenidos que incluían la canción "Secrets Not Safe" de otras cuentas, incluida la de Chinx (OS). Más tarde, los sistemas automáticos de Meta eliminaron el contenido otras 112 veces.
Meta remitió este caso al Consejo. El Consejo le pidió a Meta que también presentara la publicación del contenido de Chinx (OS). Sin embargo, Meta manifestó que no era posible, ya que el hecho de eliminar el video de "Secrets Not Safe" de la cuenta de Chinx (OS) produjo, en última instancia, la eliminación de la cuenta, y el contenido no se preservó.
Conclusiones principales
El Consejo determinó que eliminar este contenido no fue una medida coherente con las Normas comunitarias de Meta, sus valores o sus responsabilidades con los derechos humanos.
Meta no contaba con pruebas suficientes para concluir que el contenido incluía una amenaza creíble, y la revisión propia del Consejo no encontró pruebas para respaldar tal resolución. Ante la falta de dichas pruebas, Meta debió haber dado más peso a la naturaleza artística del contenido.
Este caso genera inquietudes respecto de las relaciones de Meta con los Gobiernos, en especial, en una situación en la que, a raíz de solicitudes de autoridades policiales, contenido legal se revisó a la luz de las Normas comunitarias y se eliminó. Si bien las autoridades policiales en ocasiones pueden proporcionar contexto y pericia, no todo el contenido que las autoridades policiales preferirían eliminar debe eliminarse. Por lo tanto, es fundamental que Meta evalúe estas solicitudes de forma independiente, en particular, cuando se relacionan con expresiones artísticas de personas pertenecientes a minorías o grupos marginados, cuyo contenido afronta un riesgo crítico de sesgo cultural.
Los canales a través de los cuales las autoridades policiales presentan solicitudes a Meta son aleatorios y confusos. No se exige a las autoridades policiales cumplir con criterios mínimos para justificar sus solicitudes, y por lo tanto, las interacciones no son sistemáticas. Asimismo, los datos que Meta publica sobre las solicitudes gubernamentales son parciales.
La falta de transparencia en torno a la relación de Meta con las autoridades policiales aumenta la posibilidad de que la empresa actúe de forma sesgada. En una solicitud de libertad de información que presentó el Consejo, se descubrió que las 286 solicitudes que la Policía Metropolitana hizo a empresas de medios sociales y servicios de streaming para que se revisara o eliminara contenido musical entre junio de 2021 y mayo de 2022 tuvieron que ver con música drill, que es particularmente popular entre los jóvenes británicos de la comunidad negra. Las plataformas eliminaron contenido a partir de 255 de estas solicitudes. Entre las 21 solicitudes relacionadas con plataformas de Meta, hubo 14 eliminaciones de contenido. El Consejo determinó que, para honrar sus valores y responsabilidades con los derechos humanos, la respuesta de Meta a las solicitudes de las autoridades policiales debe respetar el procedimiento debido y ser más transparente.
Este caso también genera inquietudes en torno al acceso a mecanismos de reparación. Como parte de este caso, Meta manifestó al Consejo que, cuando la empresa toma decisiones relacionadas con el contenido "en etapa de escalamiento", los usuarios no pueden realizar apelaciones al Consejo. Las decisiones "en etapa de escalamiento" son aquellas que toman los equipos de especialistas internos de Meta. De acuerdo con Meta, todas las decisiones sobre solicitudes realizadas por autoridades policiales se toman "en etapa de escalamiento" (a menos que la solicitud se realice mediante una herramienta para reportar contenido disponible públicamente en el producto), ya que son decisiones sobre ciertas políticas que solo pueden aplicar los equipos internos de Meta. La situación se suma a las inquietudes surgidas durante la preparación de la opinión de asesoramiento normativo del Consejo acerca de la verificación cruzada, cuando Meta reveló que, entre mayo y junio de 2022, alrededor de un tercio del contenido del sistema de verificación cruzada no ofrecía la posibilidad de realizar apelaciones al Consejo.
Meta remitió al Consejo contenido escalado en varias ocasiones, incluida esta. No obstante, al Consejo le preocupa que a los usuarios se les niegue el acceso a un mecanismo de reparación cuando Meta toma algunas de sus decisiones relacionadas con contenido más trascendentales. La empresa debe abordar este problema de forma urgente.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido.
El Consejo le recomendó a Meta:
- Crear un sistema estandarizado para recibir solicitudes de eliminación de contenido de agentes estatales. Este debería incluir la petición de ciertos criterios, por ejemplo, el modo en que se infringió una política y pruebas de ello.
- Publicar datos sobre las solicitudes de revisión y eliminación de contenido por infracciones contra las Normas comunitarias provenientes de agentes estatales.
- Revisar regularmente sus datos sobre las decisiones de moderación de contenido iniciadas a partir de solicitudes de agentes estatales para evaluar la existencia de posibles sesgos sistémicos y crear un mecanismo para abordar cualquier sesgo que se detecte.
- Proporcionar a los usuarios la oportunidad de realizar una apelación al Consejo cuando tome decisiones relacionadas con el contenido "en etapa de escalamiento".
- Preservar las cuentas y el contenido penalizados o inhabilitados por publicar contenido que esté sujeto a una investigación abierta llevada a cabo por el Consejo.
- Actualizar su valor de "expresión" para que en este se refleje la importancia de la expresión artística.
- Aclarar en las Normas comunitarias que, para que contenido se elimine por ser una "amenaza velada", se requieren un indicio principal y otro secundario, y se debe dejar claro cuál es cuál.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión de Meta de eliminar un clip de Instagram en el que se anunciaba el lanzamiento de una canción de música drill británica del artista Chinx (OS).
Meta remitió este caso al Consejo porque planteaba cuestiones recurrentes sobre el adecuado tratamiento de las expresiones artísticas que hacen referencia a violencia. Implicaba un equilibrio entre los valores de "expresión", en la forma de expresión artística, y de "seguridad" de Meta.
El Consejo determinó que Meta no tenía suficientes pruebas para concluir de forma independiente que el contenido incluía una amenaza velada creíble. Según la evaluación del Consejo, el contenido no debió eliminarse ante la falta de pruebas más contundentes de que el contenido podía causar daño inminente. Meta debió haber tenido en cuenta de forma más exhaustiva el contexto artístico del contenido al evaluar la credibilidad de la supuesta amenaza. El Consejo determinó que el contenido no infringía la norma comunitaria sobre violencia e incitación de Meta y que su eliminación no protegió lo suficiente el valor de "expresión" de Meta ni cumplió sus responsabilidades como empresa con los derechos humanos.
Este caso generó inquietudes más amplias respecto de la relación de Meta con los Gobiernos, incluidas situaciones en que autoridades policiales solicitan a Meta evaluar si contenido legal cumple con sus Normas comunitarias. El Consejo observó que los canales a través de los que los Gobiernos pueden solicitar tales evaluaciones son confusos y aleatorios. La falta de transparencia y medidas de protección adecuadas en torno a la relación de Meta con las autoridades policiales aumenta la posibilidad de que la empresa exacerbe prácticas gubernamentales abusivas o discriminatorias.
Este caso también pone de manifiesto que, para las decisiones de moderación de contenido que Meta toma en etapa de escalamiento, a los usuarios se les niega injustamente la posibilidad de realizar apelaciones al Consejo asesor de contenido. Las decisiones "en etapa de escalamiento" son aquellas que toman los equipos de especialistas internos de Meta, en lugar de tomarse a través de procesos de revisión de contenido "a gran escala". Esta falta de disponibilidad de una instancia de apelación se suma a las inquietudes relativas al acceso al Consejo que se abordarán en la próxima opinión consultiva sobre políticas acerca de la verificación cruzada del Consejo. En conjunto, estas inquietudes suscitan cuestionamientos graves sobre el derecho de los usuarios a acceder a mecanismos de reparación cuando Meta toma algunas de sus decisiones relacionadas con contenido más transcendentales en etapa de escalamiento. La empresa debe abordar este problema de forma urgente.
2. Descripción del caso y contexto
En enero de 2022, una cuenta de Instagram que, según su autodescripción, promocionaba música británica publicó un video con un breve texto en su cuenta pública. El clip de 21 segundos era parte del video musical de una canción de drill británico denominada "Secrets Not Safe", del rapero Chinx (OS). En el texto, se etiquetó a Chinx (OS) y a un artista colaborador, y se destacaba la canción que se había lanzado recientemente. El clip de video incluía el segundo verso de la canción y terminaba fundiéndose a una pantalla negra con el texto "OUT NOW" (YA DISPONIBLE).
El drill es un subgénero de la música rap popular en el Reino Unido, en especial, entre los jóvenes de la comunidad negra. En Londres, hay muchos fans y artistas del drill. Este género musical es hiperlocal, y los grupos de drill pueden asociarse a zonas muy pequeñas, como urbanizaciones simples. Se trata de un género de base popular, que mayoritariamente se manifiesta en inglés en un contexto urbano. Una línea fina divide a los artistas profesionales de los amateurs. Los artistas suelen hablar con detalles minuciosos de los conflictos violentos que ocurren frecuentemente en las calles, con una narrativa en primera persona e imágenes y letra que describen actos violentos. Las posibles declaraciones de violencia y bravuconería performativa se consideran parte del género (una forma de expresión artística donde la realidad y la ficción pueden confundirse). A través de estas afirmaciones, los artistas compiten por relevancia y popularidad. Si la música drill genera violencia en la vida real o no es un asunto controversial, en particular, en lo que respecta a la confiabilidad de las afirmaciones probatorias que se sostienen en los debates.
En los últimos años, los incidentes de violencia con armas y cuchillos que se grabaron en Londres fueron muchos, y las consecuencias afectaron desproporcionadamente a las comunidades negras.
A continuación, se cita la letra del fragmento de la canción. El Consejo agregó el significado de los términos en inglés no estándar entre corchetes y suprimió los nombres de los individuos:
Ay, broski [a close friend], wait there one sec (wait). You know the same mash [gun] that I showed [name redacted] was the same mash that [name redacted] got bun [shot] with. Hold up, I’m gonna leave somebody upset (Ah, fuck). I’m gonna have man fuming. He was with me putting loud on a Blue Slim [smoking cannabis] after he heard that [name redacted] got wounded. [Name redacted] got bun, he was loosing (bow, bow) [he was beaten]. Reverse that whip [car], confused him. They ain’t ever wheeled up a booting [a drive-by shooting] (Boom). Don’t hit man clean, he was moving. Beat [shoot] at the crowd, I ain’t picking and choosing (No, no). Leave man red [bleeding], but you know [track fades out] (Ay, querido hermano, espera allí un segundo [espera]. Sabes que la misma arma que le mostré a {nombre suprimido} fue la misma arma con la que le dispararon a {nombre suprimido}. ¡Espera! Voy a molestar a alguien [oh, mierda]. Alguien se enfurecerá. Estaba conmigo fumando marihuana después de que se enteró de que habían herido a {nombre suprimido}. Le dispararon a {nombre suprimido}, lo derrotaron. Di marcha atrás con el auto, lo confundí. Nunca habían estado en un tiroteo desde un vehículo [¡bum!]. No pude acertarle al hombre, se estaba moviendo. Disparo a la multitud, no estoy buscando ni eligiendo [no, no]. Dejo a un hombre sangrando, pero ya sabes {la canción se desvanece}).
Poco después de que se publicara el video, Meta recibió una solicitud por correo electrónico de parte de la Policía Metropolitana británica para que se revisara todo el contenido que incluía esta canción de Chinx (OS). Meta afirmó que las autoridades policiales proporcionaron contexto sobre violencia entre pandillas y asesinatos relacionados en Londres y señalaron que elementos de toda la canción podrían aumentar el riesgo de violencia entre pandillas a modo de represalia.
Tras recibir la solicitud de la Policía Metropolitana, Meta escaló la revisión del contenido a su equipo interno de operaciones internacionales y, luego, a su equipo de políticas de contenido. El equipo de políticas de contenido de Meta toma las decisiones relacionadas con la eliminación de contenido en función del aporte de expertos en el tema y después de que se realicen revisiones contextuales especializadas. Según el contexto adicional que proporcionó la Policía Metropolitana, Meta consideró que el fragmento de la canción hacía referencia a un tiroteo ocurrido en 2017. Determinó que el contenido infringía la política sobre violencia e incitación, específicamente, la disposición que prohíbe declaraciones cifradas en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita. Meta estimó que la letra de la canción constituyó un llamado a la acción amenazante que podría suponer un riesgo de violencia o daños físicos inminentes, incluida violencia entre pandillas a modo de represalia. En consecuencia, Meta eliminó el contenido.
Horas más tarde, el creador del contenido apeló la decisión de Meta. Normalmente, los usuarios no pueden apelar las decisiones relacionadas con contenido que Meta toma a través de su proceso de escalamiento. Esto se debe a que las apelaciones que los usuarios realizan a Meta no se envían a los equipos de escalamiento, sino a los revisores encargados de los procedimientos a gran escala. Sin acceso al contexto adicional disponible en la etapa de escalamiento, esos revisores tendrían un mayor riesgo de cometer errores y de revertir decisiones tomadas en etapa de escalamiento equivocadamente. Sin embargo, en este caso, debido a un error humano, el usuario pudo apelar la decisión tomada en etapa de escalamiento a los revisores de Meta encargados de los procedimientos a gran escala. Un revisor encargado de procedimientos a gran escala determinó que el contenido no infringía las normas y lo restauró en Instagram.
Ocho días después, tras una segunda solicitud de parte de la Policía Metropolitana, Meta eliminó el contenido a través de su proceso de escalamiento nuevamente.
La cuenta involucrada en este caso tenía menos de 1.000 seguidores, la mayoría de los cuales vivían en el Reino Unido. El usuario recibió notificaciones de Meta en ambas oportunidades en que se eliminó el contenido, pero no se le informó que esta medida partió de la solicitud de las autoridades policiales del país.
Además de la eliminación del contenido en revisión, Meta identificó y eliminó 52 elementos de contenido en los que aparecía la canción "Secrets Not Safe" de otras cuentas, incluida la cuenta de Chinx (OS). Meta agregó el contenido en cuestión de este caso al banco de Media Matching Service correspondiente a violencia e incitación, y lo marcó como infractor. Estos bancos identifican automáticamente contenido con coincidencias y pueden eliminarlo o evitar que se suba a Facebook o Instagram. A causa de la incorporación del video al banco de Media Matching Service, hubo otras 112 eliminaciones automáticas de contenido con coincidencias de otros usuarios.
Meta remitió este caso al Consejo. El contenido remitido se publicó en una cuenta que no estaba asociada directamente con Chinx (OS). Dado que la música de Chinx (OS) era el tema central de este caso, el Consejo solicitó a Meta que también remitiera la decisión de eliminar la publicación propia del rapero en la que aparecía la misma canción. Meta explicó que esto no era posible, ya que la eliminación del video de la cuenta del artista había originado una falta. Como consecuencia, la cuenta excedió el límite necesario para que se inhabilitara de forma permanente. Después de seis meses, y antes de la solicitud del Consejo de una remisión adicional, Meta eliminó de forma permanente la cuenta inhabilitada de Chinx (OS), como parte de un proceso automático habitual, a pesar de la decisión pendiente del Consejo asesor de contenido sobre este caso. La acción de eliminar la cuenta de Chinx (OS), y el contenido de ella, fue irreversible, por lo que no fue posible remitir el caso al Consejo.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene autoridad para revisar las decisiones que Meta remite para revisión (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1.1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, y Artículo 4 del acta constitutiva).
Si el Consejo identifica casos que generan inquietudes similares, es posible que los asigne a un panel juntos. En este caso, el Consejo solicitó que Meta también remitiera contenido en el que aparecía la misma canción publicado por el artista Chinx (OS). Desde la perspectiva del Consejo, la dificultad de encontrar un equilibrio entre la seguridad y la expresión artística podría haberse abordado de mejor modo si Meta hubiera remitido la publicación de Chinx (OS) de su música desde su propia cuenta. Esto también hubiera permitido que el Consejo emitiera una decisión vinculante respecto de la publicación del artista. Como consecuencia de las acciones que Meta realizó en este caso, se excluyó efectivamente al artista de poder participar de manera formal en los procesos del Consejo y se eliminó la cuenta de Chinx (OS) de la plataforma sin conceder acceso a un mecanismo de reparación.
En varias ocasiones, incluida esta, Meta remitió contenido que se había escalado dentro de la empresa al Consejo (por ejemplo, en el caso "Consejo de comunicaciones de Tigray" y en el caso "Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump"). Cuando Meta toma una decisión relacionada con contenido "en etapa de escalamiento", los usuarios no pueden apelar la decisión a la empresa ni al Consejo. Como Meta puede remitir casos que se decidieron en etapa de escalamiento al Consejo, los usuarios que crearon o reportaron el contenido deberían, de igual modo, tener la capacidad de apelar al Consejo. Las decisiones que se toman en etapa de escalamiento probablemente sean las más significativas y difíciles, y en esos casos, la supervisión independiente tiene la mayor relevancia. Los documentos constitutivos del Consejo prevén que todas las decisiones de moderación de contenido que se encuentren dentro del alcance de los estatutos (Artículo 2, secciones 1.2, 1.2.1, de los estatutos) y estos no las excluyan y para las que se haya agotado el proceso de apelación interno de Meta (Artículo 2, sección 1, del acta constitutiva) califiquen para que las personas puedan apelarlas al Consejo.
4. Fuentes de autoridad
El Consejo asesor de contenido consideró las siguientes autoridades y normas:
I. Decisiones del Consejo asesor de contenido
- "Caricatura sobre la policía colombiana" (decisión del caso 2022-004-FB-UA): como respuesta a la preocupación por que los bancos de Media Matching Service pudieran multiplicar el impacto de las decisiones incorrectas, el Consejo le recomendó a Meta mejorar de forma urgente los procedimientos para eliminar con rapidez el contenido no infractor que se hubiera agregado por error a estos bancos.
- "Dibujo animado de Knin" (decisión del caso 2022-001-FB-UA): el Consejo anuló la decisión de Meta de dejar contenido en la plataforma, ya que determinó que una comparación implícita entre la etnia serbia y las ratas infringía la norma comunitaria sobre lenguaje que incita al odio y que la referencia de esta comparación a un acontecimiento histórico también infringía la norma comunitaria sobre violencia e incitación.
- "Cinturón de abalorios" (decisión del caso 2021-012-FB-UA): el Consejo hizo hincapié en la importancia de que Meta respetara la expresión artística.
- "Publicación compartida de Al Jazeera" (decisión del caso 2021-009-FB-UA): el Consejo le recomendó a Meta formalizar un proceso transparente para el modo en que maneja las solicitudes gubernamentales e informa de manera pública acerca de estas. Los informes de transparencia deben distinguir entre las solicitudes gubernamentales que derivaron en eliminaciones de contenido por infracciones de las Normas comunitarias, las solicitudes que derivaron en eliminaciones o bloqueos geográficos de contenido por infracción de la legislación local y las solicitudes que no tuvieron más consecuencias.
- "Aislamiento de Öcalan" (decisión del caso 2021-006-IG-UA): el Consejo le recomendó a Meta notificar a los usuarios cuando se elimine su contenido tras una solicitud gubernamental. En la decisión, también se hicieron recomendaciones sobre los informes de transparencia relacionados con estas solicitudes.
- "Protesta en la India en contra de Francia" (decisión del caso 2020-007-FB-FBR): el Consejo señaló los desafíos de abordar amenazas veladas de violencia a gran escala debido a la importancia del análisis contextual.
- "Síntomas de cáncer de mama y desnudos" (decisión del caso 2020-004-IG-UA): el Consejo le recomendó a Meta aclarar a los usuarios de Instagram que las Normas comunitarias de Facebook se aplican en Instagram del mismo modo en que se aplican en Facebook. Esta recomendación se repitió en la decisión del caso "Reapropiación de términos árabes" (2022-003-IG-UA).
II. Políticas de contenido de Meta
Este caso involucra las Normas comunitarias de Instagram y las Normas comunitarias de Facebook.
En el título "Respeta al resto de los miembros de la comunidad de Instagram" de las Normas comunitarias de Instagram, se indica que la empresa quiere fomentar una comunidad positiva y diversa. La empresa elimina todo el contenido que incluya "amenazas creíbles", y esos términos están vinculados a la norma comunitaria sobre violencia e incitación de Facebook. En las Normas, también se establece lo siguiente:
No se permiten amenazas graves para la seguridad pública y personal. Esto incluyen amenazas específicas contra la integridad física y amenazas de robo, vandalismo y otros perjuicios financieros. Revisamos meticulosamente los reportes de amenazas y tenemos en cuenta muchos factores a la hora de determinar si son creíbles.
En las bases de la política de la norma comunitaria sobre violencia e incitación de Facebook, se establece que esta procura evitar que se produzcan daños en el mundo real que puedan estar relacionados con el contenido que se muestra en Facebook y que, si bien Meta entiende que las personas suelen expresar desprecio o desacuerdo mediante amenazas o apelaciones a la violencia sin intenciones serias, se elimina el lenguaje que incita o fomenta actos graves de violencia. Además, prevé que Meta, en los casos en que considera que existe riesgo de daños físicos o amenazas directas a la seguridad pública, elimina el contenido, inhabilita las cuentas y notifica a las autoridades locales. Meta indicó que intenta tener en cuenta el lenguaje y el contexto para distinguir afirmaciones casuales de contenido que constituya una amenaza creíble.
En un subtítulo en el que se establece que Meta requiere información o contexto adicional para aplicar sus políticas, la norma comunitaria indica que los usuarios no deben publicar declaraciones cifradas en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita. Estos incluyen referencias a incidentes de violencia históricos o de ficción y en los que el contexto local o el conocimiento sobre la materia confirman que la declaración en cuestión podría ser amenazante o incitar violencia o daños físicos inminentes.
III. Valores de Meta:
El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias apuntan a crear un espacio donde las personas se expresen y den a conocer su opinión. Meta quiere que las personas puedan hablar abiertamente sobre los temas que les importan, aunque otros no estén de acuerdo o los consideren objetables.
Meta limita la expresión para proteger otros cuatro valores. En este caso, los más relevantes son la seguridad y la dignidad.
Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. Eliminamos contenido que podría contribuir a un riesgo de daño para la seguridad física de las personas. El contenido que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitido en Facebook.
Dignidad: creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
IV. Normas internacionales sobre derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta respecto de los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:
- Derecho a la libertad de opinión y expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018), A/74/486 (2019), A/HRC/44/49/Add.2 (2020).
- Derecho a la vida: Artículo 6 del ICCPR.
- Derecho a la seguridad personal: Artículo 9, párrafo 1, del ICCPR.
- Derecho a una reparación eficaz: Artículo 2 del ICCPR; observación general n.º 31 del Comité de Derechos Humanos (2004).
- Igualdad y no discriminación: Artículo 2, párrafo 1, y Artículo 26 del ICCPR; Artículo 2 de la ICERD.
- Derechos culturales: Artículo 27 del ICCPR; Artículo 15 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (ICESCR); informe del Relator Especial de la ONU en el ámbito de los derechos humanos, sobre la libertad artística y la creatividad, A/HRC/23/34 (2013).
5. Respuestas del usuario
Meta remitió este caso al Consejo, y el Consejo lo seleccionó a mediados de junio de 2022. Debido a un error técnico que, desde entonces, ya se solucionó, Meta no notificó al usuario adecuadamente que el Consejo había seleccionado un caso concerniente a contenido que había publicado y no le pidió que enviara una declaración al Consejo. A finales de agosto, Meta notificó manualmente al usuario, pero este no proporcionó ninguna declaración dentro del plazo de 15 días.
6. Respuestas de Meta
Meta le explicó al Consejo que eliminó el contenido porque la publicación de Instagram infringía su política sobre violencia e incitación por incluir una amenaza velada de violencia. Meta argumentó que su decisión fue coherente con los principios internacionales de derechos humanos porque, según se explica en las Normas comunitarias, los usuarios no pueden publicar amenazas veladas de violencia; porque la aplicación de esta política atiende al fin legítimo de proteger los derechos de los demás y el orden público; y porque la eliminación del contenido en cuestión fue necesaria y proporcionada para cumplir con dichos fines.
Meta consideró que la decisión fue particularmente difícil, ya que en su política sobre violencia e incitación no se incluyen excepciones explícitas para los casos de humor, sátira o expresión artística. Según la política, Meta debe evaluar si una amenaza es creíble o si simplemente es una muestra de bravuconería o provocación que, en última instancia, no es una expresión violenta. Meta consideró que este caso es significativo porque plantea cuestiones recurrentes sobre el adecuado tratamiento de las expresiones artísticas que hacen referencia a violencia. En esta evaluación, es necesario equilibrar los valores de expresión y seguridad. Meta dijo al Consejo que, cuando el trabajo de un creador incluye amenazas de violencia o declaraciones que podrían contribuir a un riesgo de violencia prioriza la eliminación del contenido de las plataformas.
En las pautas internas que Meta proporciona a los moderadores, las Normas de implementación internas, se precisa el "análisis de amenazas veladas" que Meta usa para determinar si existen amenazas de esta índole conforme a la norma comunitaria sobre violencia e incitación. Se explica que, para que cierto contenido califique como amenaza velada, debe haber un indicio principal (como una referencia a un hecho pasado de violencia) y un indicio secundario. Los indicios secundarios pueden ser contexto local o conocimientos sobre la materia que indiquen que el contenido podría ser amenazante o una confirmación por parte del destinatario que percibe el contenido como amenazante. De acuerdo con Meta, ONG locales, autoridades policiales, el equipo de políticas públicas de Meta u otros expertos locales proporcionan los indicios secundarios. El "análisis de amenazas veladas" solo se realiza en la etapa de escalamiento, por lo que los revisores encargados de los procedimientos a gran escala no pueden ejecutarlo. Solo los equipos internos de Meta pueden llevarlo a cabo.
En este caso, Meta determinó que el contenido incluía un indicio primario al hacer referencia a la participación del rapero en un tiroteo previo e indicar la intención de una respuesta de mayor magnitud. Según Meta, el indicio secundario fue la confirmación de la Policía Metropolitana británica, que afirmó que veía el contenido como potencialmente amenazante o propenso a contribuir a violencia o daño físico inminente. Las autoridades policiales no alegaron que el contenido infringía la legislación local. Meta señaló que sus equipos internos con conocimientos en política, cultura y lingüística evalúan los reportes de las autoridades policiales.
Meta argumentó que la música drill a menudo estuvo vinculada con violencia y citó un informe de Policy Exchange en el que se indica que aproximadamente un cuarto de los asesinatos a manos de pandillas de Londres estuvo vinculado a la música drill. Sin embargo, Meta reconoció que este informe enfrentó algunas críticas por parte de criminólogos. Meta citó una carta abierta, firmada por 49 criminólogos, científicos sociales y organizaciones profesionales, en la que se desestimó el informe por ser impreciso desde un punto de vista fáctico, engañoso y peligroso desde un punto de vista político, y por cometer errores de causalidad y correlación graves.
Ciertas políticas de Meta solo pueden aplicarse a través del proceso de escalamiento interno de los equipos internos de Meta. A esto se lo conoce como una decisión tomada "en etapa de escalamiento". Meta proporcionó una lista con alrededor de 40 reglas exclusivas para la etapa de escalamiento en relación con nueve áreas de políticas. El Consejo preguntó a Meta cómo, en este caso, un revisor encargado de procedimientos a gran escala pudo restaurar una publicación que se había eliminado en etapa de escalamiento. Meta respondió que, excepcionalmente en este caso y debido a un error humano, el creador del contenido pudo apelar la decisión inicial de eliminar el contenido. Meta reveló que, cuando se aplican medidas al contenido a través del proceso de escalamiento interno de Meta, normalmente no es posible apelar para que la empresa haga una segunda examinación. La finalidad de esto es evitar que los revisores encargados de los procedimientos a gran escala reviertan decisiones tomadas "en etapa de escalamiento" sin tener acceso al contexto disponible en este último tipo de revisión.
Por solicitud del Consejo, Meta proporcionó un resumen informativo sobre las solicitudes de los Gobiernos para revisar contenido por infringir Normas comunitarias. Meta explicó al Consejo que los Gobiernos pueden realizar solicitudes para que la empresa elimine contenido a través de correos electrónicos, la publicación o el servicio de ayuda, así como mediante las herramientas para reportar contenido disponibles en los productos, que envían el contenido a una revisión automatizada o "a gran escala".
Agregó que, cuando recibe una solicitud de autoridades policiales realizada desde un lugar diferente de las herramientas disponibles en los productos, el contenido se somete a un proceso de escalamiento interno. Sin importar cómo se recibe la solicitud que generó el escalamiento, existe un proceso de priorización y alcance estándar para evaluar la urgencia, sensibilidad y complejidad del escalamiento. Por medio de este proceso, se determina qué equipos de Meta abordarán la solicitud y la posición de la solicitud en la lista de espera. Tras una solicitud de revisión de un tercero, incluidos los Gobiernos, el equipo de operaciones internacionales de Meta completa manualmente un formulario con indicios. El modelo y los pilares de priorización tienen en cuenta los indicios relacionados con los riesgos legales, de reputación y normativos, el impacto en la seguridad física de la comunidad de Meta, el alcance y la popularidad del asunto en cuestión y la urgencia de este.
Estos pilares de priorización se ordenan según su importancia, y automáticamente se calcula una puntuación de prioridad en función de los indicios ingresados. El modelo es dinámico y responde a los cambios en el entorno (p. ej., acontecimientos en el mundo real) y las mejoras que incorpora Meta. Los escalamientos de alta prioridad, como en este caso, se envían a un equipo de especialistas dentro del equipo de operaciones internacionales de Meta. El equipo revisa el contenido a la luz de las Normas comunitarias, investiga, se pone en contacto con las partes interesadas para evaluar más en detalle cuando es necesario y toma una decisión sobre aplicación de políticas. En algunos casos, incluido este, el contenido luego se escala al equipo de políticas de contenido para conocer sus aportes. La acción realizada se comunica a las personas externas que enviaron la solicitud original. Meta expresó que su equipo de derechos humanos normalmente no opina sobre las solicitudes individuales que están relacionadas con amenazas veladas.
Meta indicó que, cuando recibe solicitudes para la eliminación de contenido de parte de autoridades policiales, evalúa el contenido en virtud de las Normas comunitarias del mismo modo en que lo haría para cualquier otro contenido, independientemente de cómo se detectó o escaló. Agregó que esto significa que las solicitudes se tratan de la misma forma en todos los países. Además, explicó que la puntuación de prioridad se ve afectada por el contexto que se proporciona en relación con los pilares. Si bien la identidad de quien realiza la solicitud no es un factor que afecte la priorización de forma directa, estos tipos específicos de contexto sí lo hacen.
Para realizar una apelación al Consejo asesor de contenido, los usuarios deben contar con un identificador de referencia de la apelación. Meta emite estos identificadores como parte de su proceso de apelación. En respuesta a las preguntas del Consejo, Meta confirmó que hace esto en el caso de las decisiones relacionadas con contenido que cumplen los requisitos para una apelación interna y luego de agotarse la posibilidad de una segunda revisión. Por lo tanto, en situaciones en las que Meta toma medidas sobre el contenido sin permitir una apelación, no existe la posibilidad de realizar una apelación al Consejo. Normalmente, esto sucede con las decisiones que se toman "en etapa de escalamiento", como las revisiones llevadas a cabo a partir de solicitudes gubernamentales (realizadas desde un lugar distinto de las herramientas para reportar contenido disponibles en los productos), y con el contenido que se revisa conforme a políticas exclusivas de la etapa de escalamiento.
El Consejo envió formalmente a Meta un total de 26 preguntas por escrito, incluidas tres rondas de preguntas de seguimiento. Estos números no incluyen las preguntas que el Consejo realizó durante el resumen informativo presencial que Meta proporcionó al Consejo respecto de cómo maneja las solicitudes gubernamentales. De las preguntas realizadas por escrito, Meta respondió 23 en su totalidad y dejó tres sin completar. Meta se negó a proporcionar datos sobre las solicitudes de autoridades policiales de todo el mundo y del Reino Unido que se centraban en "amenazas veladas" o la música drill, o la proporción de solicitudes que generaron la eliminación de contenido por infringir las Normas comunitarias. Asimismo, Meta se negó a proporcionar una copia de las solicitudes de revisión de contenido que recibió de la Policía Metropolitana en este caso. No obstante, la Policía Metropolitana proporcionó al Consejo una copia de la primera solicitud que envió a Meta, a condición de que se mantuviera la confidencialidad del contenido de la solicitud.
7. Comentarios del público
El Consejo asesor de contenido tuvo en cuenta diez comentarios del público relacionados con este caso. Se recibió un comentario de cada una de estas regiones: Europa; Oriente Medio y África septentrional; y Latinoamérica y el Caribe. Dos comentarios procedieron de Asia central y meridional, y cinco, de los Estados Unidos y Canadá. La Policía Metropolitana proporcionó un comentario. Comprendió que el Consejo revelaría este hecho, pero no otorgó permiso para que se publicara el comentario. El Consejo le pidió a la Policía Metropolitana que reconsiderara esa decisión en beneficio de la transparencia, pero esta se negó a hacerlo. La Policía Metropolitana indicó que quizá otorgue su consentimiento más adelante. Si eso sucede, el Consejo compartirá el comentario del público.
Los comentarios enviados se referían a los siguientes temas: sesgo racial y focalización excesiva y desproporcionada de las autoridades policiales en las comunidades negras; importancia del contexto sociocultural al evaluar la expresión artística; vínculos causales entre la música drill y la violencia; y manejo de las solicitudes de eliminación emitidas por Gobiernos.
El Consejo presentó una solicitud conforme a la Ley de Libertad de Información (n.º de referencia: 01/FOI/22/025946) a la Policía Metropolitana para que proporcionara información sobre las políticas y prácticas que utiliza para solicitar a medios sociales y empresas de streaming que revisen o eliminen contenido. El siguiente análisis del Consejo se basa en sus respuestas a esa solicitud.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí. Para leer la respuesta de la Policía Metropolitana a la solicitud de libertad de información del Consejo, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo analizó la pregunta de si este contenido debería restaurarse desde tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
El Consejo determinó que la eliminación del contenido de este caso por parte de Meta infringió la norma comunitaria sobre violencia e incitación.
Detectar y evaluar amenazas a gran escala es un desafío, en especial, cuando están veladas y cuando podrían necesitarse conocimientos culturales o lingüísticos específicos para evaluar el contexto (consultar las decisiones del Consejo asesor de contenido "Protesta en la India en contra de Francia" y "Dibujos animados de Knin"). La expresión artística puede incluir amenazas veladas, como puede hacerlo cualquier otro medio. El desafío de evaluar la credibilidad de las amenazas veladas en el arte es particularmente difícil. Los mensajes en el arte pueden ser deliberadamente oscuros en su intención y pueden estar sujetos a la interpretación a propósito. Las declaraciones que hacen referencia a violencia pueden estar cifradas, pero también pueden ser de naturaleza performativa o satírica. Incluso pueden caracterizar ciertas formas de arte, como la música drill. Meta reconoció estos desafíos al remitir este caso al Consejo.
El Consejo estuvo de acuerdo con Meta en que la letra del clip de video no contenía ninguna amenaza explícita de violencia conforme a la norma comunitaria sobre violencia e incitación.
Un asunto más exigente es determinar si el video incluye una amenaza velada conforme a la misma política. En las bases de la política, se define que Meta procura evitar daños en el mundo real y que se eliminará todo lenguaje que incite o fomente actos graves de violencia y que implique un riesgo genuino de daño físico o amenazas directas a la seguridad pública. Se hace hincapié en distinguir las amenazas creíbles de aquellas no creíbles. Establecer una relación causal entre el lenguaje y el riesgo de daño exige un análisis con muchos recursos.
Para que cierto contenido constituya una amenaza "velada o implícita" conforme a la norma comunitaria sobre violencia e incitación, el método de violencia o daño no debe articularse con claridad. Meta usa su "análisis de amenazas veladas", definido en las pautas no públicas que otorga a los moderadores (las Normas de implementación internas) para evaluar la presencia de una amenaza velada. Según estas, se requiere la identificación de un indicio principal y otro secundario para que determinado contenido califique como una amenaza velada.
El Consejo coincidió con Meta en cuanto a que hay un indicio principal en este caso. La letra incluye referencias a un incidente "histórico" de violencia. Se necesita contexto adicional para comprender que se trata de un tiroteo ocurrido en 2017 en Londres entre dos pandillas rivales. Para Meta, todo el fragmento hacía referencia a estos hechos. El Consejo encargó dos análisis independientes de terceros sobre la letra y basó su conclusión, es decir, coincidir con Meta en cuanto a la presencia de un indicio principal, en ellos. El Consejo señaló que estos análisis diferían sustancialmente de la interpretación de Meta. Por ejemplo, Meta interpretó el término "mash" como "marihuana", mientras que los expertos a los que el Consejo consultó lo interpretaron como "arma". Meta interpretó el término "bun" como "drogado", mientras que los expertos contratados por el Consejo lo interpretaron como "herido de bala".
Identificar una amenaza velada o implícita también requiere un indicio secundario que demuestre que la referencia podría ser amenazante o podría generar violencia o daños físicos inminentes (se hace hincapié en esto). Dicho indicio, que suele recibirse de terceros, como autoridades policiales, depende del contexto local y confirma que el contenido se considera potencialmente amenazante o propenso a contribuir a violencia o daños físicos inminentes (se hace hincapié en esto). En este caso, la Policía Metropolitana británica proporcionó esta confirmación. Meta determinó que la referencia de Chinx (OS) al tiroteo de 2017 era potencialmente amenazante o propensa a contribuir a violencia o daños físicos inminentes, y la calificó como una amenaza velada. La evaluación contextual de Meta incluyó la rivalidad específica entre las pandillas asociadas al tiroteo de 2017, así como el contexto más amplio de violencia y asesinatos entre pandillas en Londres.
Es adecuado que Meta se base en conocimientos en el tema para evaluar el contexto pertinente y la credibilidad de las amenazas veladas. El Consejo destacó que existe una ansiedad comprensible en torno a los altos niveles de violencia con armas y cuchillos que hubo en los últimos años en Londres y que las consecuencias en las comunidades negras es desproporcionada. En algunas ocasiones, las autoridades policiales pueden proporcionar tal contexto y conocimientos. Pero no todo el contenido que las autoridades policiales preferirían que se eliminara (y no todo el contenido que tiene la capacidad potencial de generar más violencia) debe eliminarse. Por lo tanto, es fundamental que Meta evalúe estos requisitos sin opinión externa y que llegue a una conclusión independiente. La empresa afirmó que lo hace. La independencia es imprescindible, y la evaluación debe exigir pruebas específicas de cómo el contenido podría causar daños. Esto es particularmente importante para contrarrestar la posibilidad de que las autoridades policiales compartan información de forma selectiva. Además, constituye la escasa oportunidad de obtener perspectivas contrarias de otras partes interesadas. En el caso de la expresión artística de personas que pertenecen a minorías o grupos marginados, el riesgo de que exista un sesgo cultural contra su contenido es especialmente crítico.
En este caso, Meta no demostró que la letra del contenido en revisión constituía una amenaza creíble o riesgo de daño inminente, ni tampoco la propia revisión del Consejo encontró pruebas para respaldar tal conclusión. Para establecer que las referencias a un tiroteo que ocurrió hace cinco años presentan un riesgo de daño hoy, se requiere evidencia probatoria adicional, más allá de las referencias en sí. El hecho de que la canción haga referencia a acontecimientos que involucran a pandillas que tienen una rivalidad violenta no significa que las referencias artísticas a esa rivalidad necesariamente constituyan una amenaza. Ante la falta de detalles suficientes para aclarar en mayor medida esa relación causal, como una prueba de que letras pasadas se hayan materializado en violencia, o de un reporte del blanco de la presunta amenaza de que podría estar en peligro, se debió conferir mayor peso a la naturaleza artística de la supuesta amenaza al evaluar su credibilidad. El hecho de que la bravuconería performativa fuera común en este género musical constituía contexto relevante que Meta debió tener en cuenta en su análisis sobre la probabilidad de que las referencias de la canción a actos violentos pasados supusieran una amenaza creíble en el presente. Terceros expertos informaron al Consejo que un análisis de la canción línea por línea para buscar pruebas de actos indebidos pasados o de riesgos de daños futuros es notoriamente impreciso y que verificar afirmaciones fácticas en las letras de la música drill es muy difícil (Digital Rights Foundation, PC-10618). En los comentarios del público (p. ej., Electronic Frontier Foundation, PC-10971), se criticó la vigilancia de las autoridades policiales sobre la música drill legal, y la investigación que Meta citó en sus solicitudes fue muy criticada por los criminólogos, como ya reconoció la empresa. Desde el punto de vista del Consejo, esta crítica también se debió tener en cuenta en el análisis de Meta. Además, instó a la empresa a solicitar información adicional a las autoridades policiales o a otras partes en relación con la causalidad antes de eliminar el contenido.
El Consejo también señaló que la canción completa de Chinx (OS), que se citó de forma fragmentada en este caso, sigue estando disponible en plataformas de streaming de música disponibles en el Reino Unido y que no observó evidencia de que haya generado actos de violencia. Meta no disponía de este contexto en el momento de su decisión inicial sobre este caso, pero aun así es relevante para la revisión independiente del contenido por parte del Consejo.
El Consejo reconoce la naturaleza intrínsecamente contextual de este tipo de decisiones de contenido que debe tomar Meta y la presión asociada respecto del tiempo cuando podría haber riesgos de daños graves. Personas razonables podrían diferir, como en este caso, en cuanto a si cierto contenido constituye una amenaza velada. No obstante, la falta de transparencia en los casos en que Meta decide eliminar contenido a partir de solicitudes gubernamentales hace difícil evaluar si el error de Meta en un caso aislado refleja un desacuerdo razonable o es un indicio de un posible sesgo sistémico que requiere más datos e investigación. Meta insistió en que su "análisis de amenazas veladas" es independiente (y el Consejo está de acuerdo con que así sea), pero, en este contexto, la mera palabra de Meta no es suficiente. Meta afirmó que evalúa el contenido a la luz de las Normas comunitarias de la misma forma en que lo haría con cualquier otro contenido, independientemente de cómo se detectó. En el "análisis de amenazas veladas", las autoridades policiales asumen el papel de reportar el contenido (es decir, señalar el indicio principal) y de proporcionar toda la información contextual que Meta necesita para evaluar posibles daños (es decir, proporcionar el conocimiento local necesario para el indicio secundario). Si bien podría haber buenos motivos para implementar un marco de priorización que garantice que los reportes de autoridades policiales se evalúen con prontitud, ese proceso debe diseñarse de tal modo que asegure que dichos reportes incluyan información suficiente para posibilitar una evaluación independiente, incluida la petición de más datos a la entidad solicitante u otras partes cuando sea necesario.
El Consejo hizo una distinción entre esta decisión y la decisión "Dibujo animado de Knin". En ese caso, el contexto adicional para aplicar la regla de "amenaza velada" fue la presencia, en el dibujo, de lenguaje que incita al odio contra el grupo que había sido el blanco del incidente violento anterior. El Consejo justificó la eliminación principalmente en función de la norma comunitaria sobre lenguaje que incita al odio. La conclusión del Consejo de que el contenido también infringía la norma comunitaria sobre violencia e incitación se basó en conocimientos del contexto que le permitieron comprender el incidente histórico (Operación Tormenta) al que se hacía referencia en la publicación. Los habitantes de la región conocían bien estos hechos contextuales, tanto quienes hablaban croata como la etnia serbia. Evidencia de esto es el gran número de veces que se reportó el contenido en ese caso (casi 400 veces), en comparación con el contenido de este caso, que no se reportó nunca. La incitación al odio contra un grupo étnico era inmediatamente evidente para un observador casual. Si bien para comprender muchas de las referencias del contenido era necesario tener conocimientos específicos del contexto, dichos conocimientos podían obtenerse sin recurrir a terceros externos.
II. Aplicación de políticas y transparencia
En este caso, una solicitud de las autoridades policiales generó 52 eliminaciones manuales y 112 eliminaciones automáticas de contenido con coincidencias (entre el 28 de enero y el 28 de agosto de 2022). Es importante reconocer que las acciones que Meta realizó como respuesta a la solicitud de la Policía Metropolitana afectaron no solo al propietario de la cuenta de Instagram de este caso, sino también a Chinx (OS) y muchos otros (consultar también: caso "Caricatura sobre la policía colombiana").
La escala de estas eliminaciones recalca la importancia del procedimiento debido y la transparencia en torno a la relación de Meta con las autoridades policiales y las consecuencias de las acciones que se toman de conformidad con esa relación (consultar también las decisiones del Consejo asesor de contenido "Aislamiento de Öcalan" y "Publicación compartida de Al Jazeera"). Para abordar estas inquietudes, debe haber un procedimiento claro y uniforme con medidas de protección contra abusos, incluidas auditorías; una correcta notificación a los usuarios del involucramiento del Gobierno en la acción que se toma en su contra; e informes de transparencia sobre estas interacciones disponibles para el público. Estos tres aspectos están interconectados, y todos deben abordarse.
a. Transparencia ante el público
Meta publica informes en su Centro de transparencia sobre las solicitudes gubernamentales para eliminar contenido con base en la legislación local. También publica informes por separado sobre las solicitudes gubernamentales de datos de usuarios. Hay otros informes aparte sobre la aplicación de políticas en función de las Normas comunitarias. Sin embargo, ninguno de estos informes discrimina los datos sobre contenido eliminado por infringir políticas de contenido a partir de una solicitud gubernamental de revisión. Los datos actuales de transparencia sobre las solicitudes gubernamentales de eliminación no representan adecuadamente la cantidad total de interacciones entre Meta y las autoridades policiales en torno a eliminaciones de contenido. Al enfocarse en la medida que toma Meta (eliminación debido a una infracción contra la legislación local), los informes sobre las solicitudes gubernamentales excluyen todos los reportes recibidos de autoridades policiales que generan una eliminación por infringir políticas de contenido. No se incluye el contenido reportado por autoridades policiales que infringe una ley local y políticas de contenido. Por este motivo, el Consejo envió una solicitud de libertad de información a la Policía Metropolitana para comprender de forma más exhaustiva las problemáticas de este caso.
Meta afirmó que la transparencia en torno a las solicitudes de eliminación gubernamentales basadas en políticas de contenido es de uso limitado, ya que los Gobiernos también pueden usar las herramientas para reportar contenido disponibles en los productos (y, de hecho, lo hacen). Estas herramientas no distinguen entre solicitudes gubernamentales y aquellas realizadas por otros usuarios.
Este caso demuestra el nivel de acceso privilegiado que las autoridades policiales tienen a los equipos de aplicación de políticas internos de Meta, lo que quedó en evidencia por la correspondencia que observó el Consejo, además de cómo ciertas políticas se basan en la interacción con terceros, como autoridades policiales, para su aplicación. El modo en que funciona esta relación para las políticas que se tratan exclusivamente en etapa de escalamiento, como en este caso, cuestiona la capacidad de Meta de evaluar de forma independiente las conclusiones de los agentes gubernamentales que carecen de suficientes pruebas detalladas.
El Consejo reconoce que Meta avanzó en cuanto a los informes de transparencia desde las primeras decisiones del Consejo que abordaron este tema. Por ejemplo, lleva a cabo un ejercicio sobre el alcance al contabilizar el contenido que se elimina en virtud de las Normas comunitarias a partir de solicitudes gubernamentales, además de colaborar con Lumen, un proyecto de investigación de Berkman Klein Center for Internet & Society sobre las solicitudes gubernamentales de eliminación de contenido. Toda iniciativa adicional relacionada con la transparencia en esta área será inmensamente valiosa para el debate público sobre las repercusiones de las interacciones entre los Gobiernos y las empresas de medios sociales.
b. Proceso de admisión de solicitudes de autoridades policiales
Si bien Meta divulgó públicamente cómo responde a las solicitudes gubernamentales de eliminación por infracciones contra la legislación local, los canales a través de los que los Gobiernos pueden solicitar una revisión por infracciones contra las políticas de contenido de Meta siguen siendo confusos.
Este caso demuestra que existen fallas significativas en el sistema de Meta que rige las solicitudes de las autoridades policiales cuando estas solicitudes no se basan en la legislación local y se realizan desde un lugar diferente de sus herramientas para reportar contenido disponibles en los productos (es decir, las funciones a las que todos los usuarios habituales tienen acceso para marcar o reportar contenido). En la decisión "Publicación compartida de Al Jazeera", el Consejo le recomendó a Meta formalizar un proceso transparente en el que se detalle cómo recibe solicitudes gubernamentales de eliminación de contenido y responde a ellas. Las autoridades policiales realizan solicitudes a través de varios canales de comunicación, lo que dificulta la estandarización y centralización de las solicitudes, así como la recopilación de datos sobre ellas. El sistema de admisión actual, en el que Meta completa el formulario de admisión, se centra únicamente en la priorización de las solicitudes recibidas. El sistema no garantiza de forma adecuada que las solicitudes de terceros cumplan estándares mínimos ni permite la recopilación precisa de datos para poder supervisar y auditar las consecuencias de este sistema de forma correcta. Algunas solicitudes podrían referirse a infracciones contra las Normas comunitarias de Meta, otras a infracciones contra la legislación nacional y otras a preocupaciones usualmente manifestadas sobre posibles daños sin conectarlas con alegaciones de actividad ilegal o infracciones contra las políticas de la plataforma. No se les pide a las autoridades policiales que cumplan con criterios mínimos para contextualizar y justificar de forma completa sus solicitudes, por lo que se establecen interacciones no estructuradas, ad hoc e inconsistentes con Meta. Los criterios mínimos podrían incluir, por ejemplo, un señalamiento de cuál política de Meta creen las autoridades policiales que se infringió, los motivos por los que se trataría de una infracción y una base probatoria con suficientes detalles para tal conclusión.
c. Notificaciones a los usuarios
En su actualización trimestral del segundo trimestre de 2022 sobre el Consejo asesor de contenido, Meta divulgó que está mejorando las notificaciones que realiza a los usuarios al indicar específicamente cuando el contenido se eliminó por infringir las Normas comunitarias después de ser reportado por una entidad gubernamental (implementación de la recomendación del Consejo en la decisión del caso "Aislamiento de Öcalan"). En este caso, si esos cambios se hubieran implementado, todos los usuarios sujetos a las 164 eliminaciones adicionales de contenido deberían haber recibido notificaciones de este tipo. Meta reconoció que, hasta que no haya montado la infraestructura necesaria para recopilar datos más detallados de las solicitudes gubernamentales, no podrá diseñar ni probar el envío de notificaciones más detalladas a los usuarios. Por lo tanto, el Consejo está de acuerdo con Meta en que este trabajo depende de hacer un seguimiento de las solicitudes gubernamentales y proporcionar más información sobre estas, que luego podrá publicarse en los informes sobre transparencia públicos de la empresa.
8.2 Cumplimiento de los valores de Meta
El Consejo determinó que eliminar el contenido no fue una medida coherente con los valores de Meta. Este caso demuestra los desafíos que Meta enfrenta a la hora de encontrar un equilibrio entre los valores de "expresión" y "seguridad", al procurar abordar un gran número de posibles amenazas veladas, a escala internacional y de forma oportuna. Sin embargo, Meta afirma que la "expresión" es su valor fundamental. Como el Consejo señaló en la decisión "Cinturón de abalorios", el arte es una forma particularmente importante y poderosa de la "expresión", en especial, para las personas que pertenecen a grupos marginados y crean arte en función de sus experiencias. Meta no contaba con suficiente información para concluir que este contenido constituía un riesgo para la "seguridad" que justificara su primacía sobre la "expresión".
Al Consejo le preocupa que, a la luz de las dudas respecto de si el contenido creíblemente suponía un riesgo de daño, Meta describiera que priorizó la "seguridad" por sobre la "expresión". Cuando surgen dudas, como en este caso, a raíz de la falta de especificidad en la información que las autoridades policiales proporcionaron sobre el fragmento de expresión artística, tal enfoque es incoherente con los valores que Meta proclama sobre sí. El Consejo reconoce la importancia de proteger a las personas contra la violencia y que esto tiene una particular relevancia para las comunidades que se ven afectadas por dicha violencia de forma desproporcionada. El Consejo también es consciente de que las decisiones sobre supuestas amenazas suelen tener que tomarse de forma rápida, sin el beneficio de una mayor reflexión. Sin embargo, una presunción contra la "expresión" podría tener un impacto desproporcionado en la voz de las personas marginadas. En la práctica, también podría aumentar significativamente el poder y la influencia de las autoridades policiales, que podrían alegar conocimientos difíciles de verificar a través de otras fuentes.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo concluyó que Meta no cumplió con sus responsabilidades como empresa con los derechos humanos cuando decidió eliminar esta publicación.
El derecho a la libertad de expresión se garantiza a todas las personas sin discriminación (Artículo 19, párrafo 2, del ICCPR; Artículo 2, párrafo 1, del ICCPR). Este caso también involucra los derechos de las personas que pertenecen a minorías étnicas a disfrutar, en comunidad con otros miembros de su grupo, su propia cultura (Artículo 27 del ICCPR) y el derecho a participar en la vida cultural (Artículo 15 del ICESCR). El derecho a acceder a mecanismos de reparación es un componente clave de la legislación de derechos humanos internacionales (Artículo 2, párrafo 3, del ICCPR; observación general n.º 31), y el mecanismo de reparación es el tercer pilar de los UNGP y un aspecto central de la Política corporativa de derechos humanos de Meta.
Libertad de expresión (Artículo 19 del ICCPR; Artículo 5 de la ICERD)
En el Artículo 19 del ICCPR se hace una mención específica a proteger la expresión en forma de arte. Las Normas internacionales sobre derechos humanos refuerzan la importancia de la expresión artística (observación general n.º 34, párrafo 11; Shin c. la República de Corea, Comité de Derechos Humanos,comunicación n.º 926/2000). En la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD), se dispuso la protección del ejercicio del derecho a la libertad de expresión sin discriminación basada en la raza (Artículo 5). El Comité sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD) hizo hincapié en la importancia que tiene la libertad de expresión para asistir a los grupos vulnerables a la hora de reajustar el equilibrio de poder entre los componentes de la sociedad y para ofrecer opiniones alternativas y argumentos contrarios en los debates (recomendación general n.º 35, párrafo 29, del Comité de la ICERD). La música drill ofrece a los jóvenes y, en particular, a los jóvenes de la comunidad negra, un medio de expresión creativa.
El arte suele ser una manifestación política, y las normas internacionales reconocen el papel único y decisivo que tiene para cuestionar el statu quo (Relator Especial de la ONU en el ámbito de los derechos culturales, A/HRC/23/34, párrafos 3 y 4). Internet y las plataformas de medios sociales, como Facebook e Instagram, en particular, tienen especial valor para que los artistas puedan llegar a públicos nuevos y más amplios. Es posible que los medios de vida de los artistas, y sus derechos sociales y económicos, dependan del acceso a las plataformas de medios sociales que dominan internet. La música drill se basa en aclamaciones presuntuosas en torno a la violencia para impulsar el éxito comercial del artista en los medios sociales. Tales aclamaciones y actuaciones son previsibles en este género. Como resultado de las acciones de Meta en este caso, se eliminó a Chinx (OS) de Instagram de forma permanente, lo que probablemente haya tenido un impacto significativo en su capacidad para llegar a su público y tener éxito comercial.
El Artículo 19 del ICCPR exige que, si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). El Relator Especial de la ONU sobre la libertad de expresión animó a las empresas de medios sociales a tomar como guía estos principios al moderar la expresión online, ya que la regulación de la expresión a escala realizada por empresas privadas podría generar inquietudes específicas según ese contexto (A/HRC/38/35, párrafos 45 y 70). El Consejo usó la prueba de tres partes con base en el Artículo 19 del ICCPR en todas sus decisiones hasta la fecha.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las leyes que limitan la libertad de expresión sean claras y accesibles, a fin de que las personas entiendan qué se permite y qué no. Además, exige que esas leyes sean específicas, a fin de garantizar que no se otorgue una discrecionalidad excesiva a quienes estén a cargo de su aplicación (observación general n.º 34, párrafo 25). El Consejo aplica estos principios para evaluar la claridad y la accesibilidad de las reglas de contenido de Meta, así como las pautas que los revisores tienen a disposición para tomar decisiones justas con base en esas reglas.
El Consejo reiteró sus preocupaciones que ya había planteado respecto de que no es clara la relación entre las Normas comunitarias de Instagram y las Normas comunitarias de Facebook. En agosto de 2022, Meta asumió el compromiso de implementar las recomendaciones anteriores del Consejo en esta área (actualización trimestral del segundo trimestre de 2022 sobre el Consejo asesor de contenido) y alinear las Normas comunitarias de ambas plataformas a largo plazo.
Las diferencias entre la norma comunitaria pública sobre violencia e incitación y las Normas de implementación internas de Meta también son preocupantes. Meta usa "indicios" para determinar si el contenido incluye una amenaza velada. Los "indicios" se agregaron a las Normas comunitarias públicas como resultado de recomendaciones anteriores del Consejo. Sin embargo, en las Normas comunitarias, no se explica que Meta divide estos indicios en principales y secundarios, ni que se necesita un indicio principal y otro secundario para confirmar una infracción contra una política. Aclarar esto será útil para quienes hagan reclamos sobre el contenido en la plataforma, incluidos terceros de confianza y autoridades policiales. La claridad sobre los indicios tiene especial relevancia, ya que el indicio secundario valida el riesgo de daño que surge del contenido y conlleva la decisión de eliminación. Los terceros que proporcionan un indicio principal sin un indicio secundario podrían sentirse confundidos si no se toman medidas respecto del contenido que reportaron.
II. Fin legítimo
Toda restricción que se aplique a la libertad de expresión debe tener un fin legítimo. En parte, la política sobre violencia e incitación existe para prevenir daños en la vida real. Por lo tanto, esta política ampara el fin legítimo de proteger los derechos de los demás (los derechos a la vida y a la seguridad de la persona de quienes son el blanco de la publicación).
III. Necesidad y proporcionalidad
El Consejo determinó que la eliminación del contenido no era necesaria para lograr el fin de la política.
El principio de necesidad y proporcionalidad exige que las restricciones que se apliquen a la expresión deben ser adecuadas a fin de cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función, deben ser proporcionales al interés que se busca proteger (observación general n.º 34, párrafo 34). La forma de expresión en cuestión, como la expresión en forma de arte, debe tenerse en cuenta (observación general n.º 34, párrafo 34).
El Relator Especial de la ONU sobre la libertad de expresión mencionó las dificultades que enfrentan los artistas en el uso que hacen de los medios sociales, ya que dicha expresión suele tener características complejas y puede fácilmente incumplir las reglas de las plataformas, y los mecanismos de reparación son inadecuados (A/HRC/44/49/Add.2, párrafos 44-46). Con esto se reafirman observaciones más generales que el Relator Especial hizo sobre deficiencias en la moderación de contenido contextual que llevan a cabo distintas plataformas, por ejemplo, sobre asuntos que requieren matices históricos o culturales (A/HRC/38/35, párrafo 29).
El Relator Especial de la ONU en el ámbito de los derechos culturales hizo hincapié en la complejidad de la expresión artística (A/HRC/23/34, párrafo 37):
La obra de arte se diferencia de las declaraciones que no son ficción en que la gama de significados múltiples que pueden atribuírsele es mucho más amplia; por ello son extremadamente difíciles de demostrar las suposiciones sobre el mensaje transmitido por una obra de arte, y las interpretaciones que se den a esta no tienen por qué coincidir con el significado que se propuso darle el autor. Las expresiones y creaciones artísticas no siempre transmiten un mensaje o una información específicos, y no debe considerarse que únicamente las que lo hacen son artísticas. Además, el recurso a la ficción y a lo imaginario debe entenderse y respetarse como un elemento crucial de la libertad indispensable para las actividades creativas y las expresiones artísticas: las representaciones de lo real no deben confundirse con lo real […]. Por lo tanto, los artistas deben poder explorar el lado más oscuro de la humanidad y representar delitos […], sin ser acusados de promoverlos.
En las observaciones del Relator Especial, no se excluye la posibilidad de que el arte tenga como finalidad causar daño y que pudiera lograr dicho objetivo. Para una empresa que está en la posición de Meta, realizar estas evaluaciones rápidamente, a gran escala y en todo el mundo es un desafío. La creación de Meta de las políticas "exclusivas para la etapa de escalamiento" que exigen un análisis contextual más completo para eliminar contenido es una muestra de respeto por el principio de necesidad. En virtud de las responsabilidades de Meta con los derechos humanos, la empresa debe prevenir y mitigar los riesgos relativos al derecho a la vida y al derecho a la seguridad de la persona que enfrentan quienes pueden estar en peligro a raíz de publicaciones que incluyen amenazas veladas. Sin embargo, por los motivos establecidos en la sección 8.1 de esta decisión, ese análisis requiere una examinación más profunda de la causalidad y debe incluir más matices en su evaluación del arte para cumplir con los requisitos de necesidad. El Consejo no observó pruebas suficientes que demostraran la presencia de una amenaza creíble en este caso, por lo que la eliminación no era necesaria.
En este aspecto, la política sobre violencia e incitación usa terminología cuya interpretación podría permitir eliminaciones excesivas de contenido. Una amenaza "potencial" o contenido que "podría" generar violencia en algún punto, como una burla, fueron elementos muy amplios en esta decisión para satisfacer los requisitos de necesidad. En casos anteriores, el Consejo no exigió que el riesgo de violencia futura fuera inminente para que se permitiera la eliminación (consultar, por ejemplo, el caso "Dibujo animado de Knin"), ya que las responsabilidades de Meta con los derechos humanos podrían diferir de las de un Estado que impone sanciones penales o civiles (consultar, por ejemplo, el caso "Insultos de Sudáfrica"). No obstante, el Consejo exigió una base probatoria más substancial de que realmente había una amenaza creíble, en comparación con la que aparece en este caso (consultar, por ejemplo, el caso "Protesta en la India en contra de Francia").
No discriminación y acceso a mecanismos de reparación (Artículo 2[1] del ICCPR)
El Comité de Derechos Humanos dejó claro que toda restricción que se imponga sobre la libertad de expresión debe respetar el principio de no discriminación (observación general n.º 34, párrafo 32). La interpretación del Consejo de las responsabilidades de Meta con los derechos humanos se basa en este principio (Relator Especial de la ONU sobre la libertad de expresión, A/HRC/38/35, párrafo 48).
En su comentario del público, Digital Rights Foundation argumentó que, si bien hay quienes describieron la música drill como un llamado movilizador a la violencia entre pandillas, esta sirve como un medio para que los jóvenes, en especial, los jóvenes de las comunidades negra y marrón, puedan expresar su descontento con un sistema que perpetúa la discriminación y la exclusión (PC-10618). JUSTICE, en su informe "Tackling Racial Injustice: Children and the Youth Justice System", citó, con el fin de brindar un ejemplo de racismo sistémico, el modo en que las autoridades policiales usan de forma indebida la música drill para conseguir condenas. El Consejo supo a través de su solicitud de libertad de información que las 286 solicitudes que la Policía Metropolitana realizó a empresas de medios sociales y servicios de streaming para revisar contenido musical entre el 1 de junio de 2021 y el 31 de mayo de 2022 tuvieron que ver con música drill. De esas solicitudes, 255 conllevaron la eliminación del contenido de la plataforma. De las 286 solicitudes, 21 estuvieron relacionadas con plataformas de Meta y, entre ellas, hubo 14 eliminaciones. Como se describió anteriormente, una solicitud puede generar múltiples eliminaciones de contenido. Este énfasis intensivo en un género musical específico entre los muchos que incluyen referencias a violencia genera mucha preocupación acerca de una posible vigilancia excesiva de ciertas comunidades. Excede la incumbencia del Consejo decir si estas solicitudes representan una buena labor policial, pero sí le corresponde al Consejo evaluar cómo Meta puede honrar sus valores y responsabilidades con los derechos humanos al responder a tales solicitudes. Por consiguiente, y como se describe a continuación, la respuesta de Meta a las solicitudes de las autoridades policiales debe, además de satisfacer requisitos probatorios mínimos, contar con suficiente sistematización, auditoría y transparencia, para los usuarios afectados y para el público más amplio, a fin de permitir a la empresa, el Consejo y otras partes evaluar hasta qué punto Meta se comporta conforme a sus valores y cumple con sus responsabilidades con los derechos humanos.
Siempre que un agente gubernamental se vea involucrado en la obstaculización de la expresión de una persona, como en este caso, el procedimiento debido y la transparencia son factores clave para permitir a los usuarios afectados reivindicar sus derechos e, incluso, cuestionar a dicho agente gubernamental. Meta debe considerar si sus procesos en su estado actual favorecen o impiden esto. La empresa no puede permitir que su colaboración con las autoridades policiales sea poco clara y que, en consecuencia, impida a los usuarios acceder a mecanismos de reparación ante posibles incumplimientos de los derechos humanos.
También es importante que Meta proporcione a sus usuarios un acceso adecuado a mecanismos de reparación ante las decisiones de contenido que afecten los derechos de los usuarios. El Relator Especial de la ONU sobre la libertad de expresión abordó las responsabilidades de las empresas de medios sociales en relación con la expresión artística (A/HRC/44/49/Add.2, a partir del párrafo 41). Sus observaciones sobre el acceso que las mujeres artistas tienen a mecanismos de reparación son relevantes para la situación de los artistas de la comunidad negra en el Reino Unido:
Según informes, artistas experimentaron el cierre de sus páginas personales y profesionales de Facebook y Twitter […]. Las infracciones contra normas comunitarias vagas pueden dejar a los artistas sin procedimientos "contranotificación" que permitan cuestionar la eliminación de su arte. Debido a la falta de medidas de protección procedimentales y de acceso a mecanismos de reparación para los usuarios, los artistas dejan de tener acceso a una plataforma para mostrar su arte y, por lo tanto, a espectadores que puedan disfrutarlo. En algunos casos, los Estados trabajan con empresas para controlar el tipo de contenido disponible online. Esta colaboración peligrosa tiene como consecuencia silenciar a artistas e impedir que personas […] accedan a arte como medio de expresión.
El Relator Especial de la ONU sobre la libertad de expresión señaló que el proceso de reparación correspondiente a empresas de medios sociales debería incluir un procedimiento transparente y accesible para apelar las decisiones de las plataformas y que las empresas deberían proporcionar una respuesta fundamentada que también sea de acceso público (A/74/486, párrafo 53).
A pesar de que una cuenta que no pertenecía a Chinx (OS) publicó el contenido en revisión de este caso, el artista había publicado el mismo video en su propia cuenta. Este se eliminó en el mismo momento en que se eliminó el contenido de este caso y, como consecuencia, su cuenta primero se inhabilitó y, luego, se eliminó. Así queda en evidencia cómo la colaboración entre las autoridades policiales y Meta puede generar una limitación significativa de la expresión de los artistas y, por consiguiente, que su público no pueda acceder a arte en la plataforma. Como se confirmó en la solicitud de libertad de información que hizo el Consejo, esta colaboración tiene como blanco de forma específica y exclusiva a artistas de la música drill, quienes en su mayoría son hombres negros.
El Consejo solicitó que Meta remitiera la eliminación del contenido de la cuenta de Chinx (OS) a revisión, de modo que pudiera examinarse junto con el contenido de este caso. Eso no fue técnicamente posible, ya que Meta eliminó la cuenta. Por lo tanto, se generan inquietudes significativas en torno al derecho a un mecanismo de reparación, al igual que el hecho de que los usuarios no puedan apelar las decisiones tomadas "en etapa de escalamiento" al Consejo asesor de contenido. Esto incluye a las decisiones significativas y difíciles relativas a las políticas que exigen contexto adicional para su aplicación, las que solo se toman en "etapa de escalamiento". También abarca todas las solicitudes gubernamentales de eliminación (fuera del uso de la "herramienta disponible en el producto"), incluido contenido legal, que cumplen los requisitos para someterse a revisión y que están dentro del alcance previsto conforme al acta constitutiva del Consejo asesor de contenido. Este último caso es especialmente preocupante para las personas que pertenecen a grupos discriminados, quienes podrían afrontar más obstáculos a la hora de acceder a la justicia como consecuencia de opciones de diseño de los productos de Meta.
Estas inquietudes sobre el derecho a un mecanismo de reparación se suman a las que surgieron mientras el Consejo trabajaba en la próxima opinión de asesoramiento normativo acerca de la verificación cruzada. La verificación cruzada es el sistema que usa Meta para disminuir los errores en la aplicación de políticas. Para ello, agrega más instancias de revisión manual, antes de eliminar contenido, en el caso de ciertas publicaciones que inicialmente se identifican como infractoras de sus reglas. Meta indicó al Consejo que, entre mayo y junio de 2022, en alrededor de un tercio de las decisiones relacionadas con contenido del sistema de verificación cruzada, no se dio a los usuarios la posibilidad de realizar apelaciones al Consejo. El Consejo abordará este asunto con más detalle en la opinión de asesoramiento normativo acerca de la verificación cruzada.
8.4 Contenido idéntico con contexto paralelo
El Consejo señaló que este contenido se agregó al banco de Media Matching Service correspondiente a violencia e incitación, lo que generó eliminaciones automáticas de contenido con coincidencias y, posiblemente, otras medidas en el nivel de la cuenta en otras cuentas. En función de esta decisión, Meta debe asegurar que el contenido se elimine de este banco, restaurar el contenido idéntico que se eliminó por error cuando sea posible y revertir las faltas o penalizaciones en el nivel de la cuenta. Debe eliminar todo lo que impida que Chinx (OS) restablezca una cuenta en Instagram o Facebook.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido y solicitó que se restaurara la publicación.
10. Declaraciones de asesoramiento normativo
A. Política de contenido
1. La descripción de Meta de su valor de "expresión" debe actualizarse de modo que refleje la importancia de la expresión artística y creativa. El Consejo considerará que se implementó esta recomendación cuando se hayan modificado los valores de Meta.
2. Meta debe aclarar que, para que cierto contenido se elimine por ser una "amenaza velada" conforme a la norma comunitaria sobre violencia e incitación, se requieren un indicio principal y otro secundario. La lista de indicios debe dividirse entre indicios principales y secundarios, de acuerdo con las Normas de implementación internas. De este modo, la política de contenido de Meta en esta área será más fácil de comprender, en especial, para quienes reporten contenido como potencialmente infractor. El Consejo considerará que se implementó esta recomendación cuando se haya actualizado el texto de la norma comunitaria sobre violencia e incitación.
B. Aplicación
3. Meta debe proporcionar a los usuarios la oportunidad de apelar al Consejo asesor de contenido toda decisión tomada a través del proceso de escalamiento interno de la empresa, incluidas las decisiones de eliminar y conservar contenido. Esto es necesario para dar la posibilidad de acceder a un mecanismo de reparación ante el Consejo y para permitir que el Consejo reciba apelaciones por decisiones de aplicación de políticas exclusivas de la etapa de escalamiento. También debe alcanzar a las apelaciones que refutan eliminaciones realizadas por infracciones contra las Normas comunitarias a partir de reportes hechos por "informantes confiables" o agentes gubernamentales desde un lugar diferente de las herramientas disponibles en los productos. El Consejo considerará que se implementó esto cuando vea apelaciones de usuarios provenientes de decisiones tomadas en etapa de escalamiento y cuando Meta comparta datos con el Consejo con los que demuestre que, para la totalidad de las decisiones que cumplen los requisitos para escalamiento, los usuarios reciben identificadores de referencia para iniciar las apelaciones.
4. Meta debe implementar y garantizar un método sistemático en todo el mundo para recibir solicitudes de eliminación de contenido (desde un lugar distinto de las herramientas para reportar contenido disponibles en los productos) de agentes estatales. Para ello, debe crear un formulario de admisión estandarizado que solicite criterios mínimos, por ejemplo, la parte de la política que se infringió, los motivos por los que se trata de una infracción y una base probatoria detallada para tal conclusión, antes de que Meta tome medidas sobre alguna de dichas solicitudes de manera interna. Esto contribuirá a recopilar los datos de forma más organizada para los informes de transparencia. El Consejo considerará que se implementó esto cuando Meta haya divulgado las pautas internas que describan el sistema de admisión interno ante el Consejo y en el Centro de transparencia.
5. Meta debe marcar y preservar las cuentas y el contenido que se hayan penalizado o inhabilitado por publicar contenido que esté sujeto a una investigación abierta por parte del Consejo. Esto evitará que esas cuentas se eliminen de forma permanente en caso de que el Consejo quiera solicitar que se remita contenido para evaluarse en la decisión o para garantizar que sus decisiones puedan aplicarse en todo el contenido idéntico con contexto paralelo que pudiera haberse eliminado por error. El Consejo considerará que se implementó esto cuando las decisiones del Consejo sean válidas para las entidades mencionadas y Meta divulgue el número de dichas entidades afectadas por cada decisión del Consejo.
C. Transparencia
6. Meta debe crear una sección en su Centro de transparencia, junto con su "Informe de cumplimiento de las Normas comunitarias" y el "informe de solicitudes legales de restricciones de contenido", para informar acerca de las solicitudes que agentes gubernamentales realizan para que se revise contenido por infringir las Normas comunitarias. Debe incluir detalles sobre el número de solicitudes de revisión y eliminación por país y por organismo gubernamental, y el número de rechazos de Meta. Esto es necesario para mejorar la transparencia. El Consejo considerará que esto se implementó cuando Meta publique una sección por separado en el Centro de transparencia sobre las solicitudes de agentes estatales que conllevaron la eliminación de contenido por infracciones contra políticas de contenido.
7. Meta debe revisar regularmente los datos de las decisiones de moderación de contenido que comenzaron a partir de solicitudes de revisión de contenido de agentes estatales para evaluar si existe algún tipo de sesgo sistémico. Meta debe crear un ciclo de comentarios formal para corregir posibles sesgos o consecuencias desmedidas que pudieran surgir a partir de sus decisiones de eliminación de contenido iniciadas por solicitudes gubernamentales. El Consejo considerará que se implementó esta recomendación cuando Meta publique de forma regular estadísticas generales procedentes de estas auditorías y las medidas tomadas para mitigar el sesgo sistémico.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asistencia de parte de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas