El Consejo asesor de contenido publica el informe de transparencia del tercer trimestre de 2021
9 de diciembre de 2021
El 28 de octubre de 2021, Facebook anunció que cambiaba el nombre de la empresa a Meta. En este texto, Meta hace referencia a la empresa, y Facebook continúa haciendo referencia al producto y a las políticas de la app específica.
Hoy publicamos el informe de transparencia del tercer trimestre de 2021.
Como parte del compromiso del Consejo asesor de contenido con la transparencia de nuestro trabajo, cada trimestre compartimos detalles sobre los casos que recibimos de los usuarios, las decisiones que tomamos y nuestras recomendaciones a Meta. Nuestros primeros informes de transparencia, que abarcan el cuarto trimestre de 2020, y el primero y segundo de 2021, se publicaron en octubre de 2021.
El informe de hoy muestra que en el tercer trimestre de 2021 (del 1 de julio al 30 de septiembre de 2021), el Consejo siguió recibiendo un volumen creciente de apelaciones por parte de usuarios de Facebook e Instagram de todo el mundo, con unos 339.000 casos presentados en este trimestre.
El Consejo publicó seis decisiones durante el tercer trimestre, que abarcan cuestiones que van desde las protestas políticas hasta los confinamientos por COVID-19. En cuatro de estas decisiones, el Consejo anuló la decisión de Meta sobre el contenido, mientras que confirmó la decisión de la empresa en las otras dos.
Como parte de nuestro proceso de toma de decisiones, recibimos más de 100 comentarios del público. En estas seis decisiones, emitimos 25 recomendaciones de políticas, de las cuales Meta se comprometió a aplicar la mayoría.
Puntos destacados del informe de transparencia del tercer trimestre del Consejo
1. El número de casos presentados al Consejo aumentó considerablemente
De julio a septiembre, estimamos que los usuarios presentaron alrededor de 339.000 casos al Consejo. Esto representa un aumento del 64% respecto a los 207.000 casos presentados en el segundo trimestre de 2021.
Es posible que este aumento se deba a las mejoras en la manera en la que los usuarios envían la apelación al Consejo a través de la app para celulares de Facebook, así como al creciente perfil del Consejo. Desde que el Consejo comenzó a aceptar casos el pasado mes de octubre, recibimos más de 860.000 solicitudes de usuarios para examinar las decisiones de moderación de contenidos de Meta.
2. Aumentaron los casos relacionados con la violencia y la incitación
De julio a septiembre, los usuarios que querían que se restauraran sus contenidos presentaron principalmente casos relacionados con las reglas de Facebook sobre bullying y acoso (34%), violencia e incitación (30%) y lenguaje que incita al odio (23%). El porcentaje de casos relacionados con reglas sobre violencia e incitación aumentó en dos tercios entre el segundo y el tercer trimestre de este año, pasando de alrededor del 18% a cerca del 30%.
3. En aproximadamente la mitad de los casos preseleccionados por el Consejo en el tercer trimestre de 2021, Meta decidió que su decisión original de eliminar el contenido era incorrecta
Después de que el comité de selección de casos del Consejo identifica los casos que se deben revisar, pedimos a Meta que confirme que cumplen los requisitos para la revisión según los estatutos. En esta fase, Meta a veces se da cuenta de que su decisión original de eliminar el contenido fue incorrecta. Esto sucedió en aproximadamente la mitad de los casos preseleccionados por el comité de selección de casos en el tercer trimestre de 2021 (13 de 28 casos). Meta restauró el contenido a Facebook o Instagram.
A veces, a pesar del cambio de opinión de Meta, el Consejo emite igualmente una decisión completa cuando el caso tiene un importante valor para establecer un precedente. Esto ocurrió en dos casos publicados en el tercer trimestre de 2021 (el aislamiento de Ocalan y la publicación que compartió Al-Jazeera). Sin las acciones del Consejo, las decisiones incorrectas de Meta probablemente seguirían vigentes.
4. Meta se comprometió a implementar "plena" o "parcialmente" más de la mitad de las recomendaciones del Consejo en el tercer trimestre de 2021
De las 25 recomendaciones que el Consejo formuló en sus seis decisiones publicadas de julio a septiembre, Meta mencionó que implementaría nueve recomendaciones "plenamente" y cuatro "parcialmente". La empresa dijo que estaba "evaluando la viabilidad" de cinco recomendaciones y afirmó que otras cinco representaban trabajo que Meta ya hace. Meta afirmó que "no tomaría ninguna otra medida" sobre dos de las recomendaciones.
En respuesta a las recomendaciones que el Consejo hizo en el tercer trimestre, Meta asumió varios compromisos que podrían aumentar la transparencia para los usuarios.
Por ejemplo, Meta se comprometió a proporcionar información en su Centro de transparencia sobre el contenido eliminado por infringir las Normas comunitarias de Facebook tras el informe formal de un gobierno, incluido el número de solicitudes que recibe.
Meta también dijo que "aplicaría plenamente" nuestra recomendación de contratar a una entidad independiente, no asociada con ninguna de las partes del conflicto entre Israel y Palestina, para efectuar una evaluación exhaustiva y determinar si la moderación de su contenido en hebreo y en árabe, incluido el uso de la automatización, se aplica sin sesgos.
Guiar a Meta hacia una mayor transparencia
Además de publicar nuestro informe de transparencia del tercer trimestre, hoy también publicamos dos nuevas decisiones sobre casos que exigen más transparencia en torno a las políticas de Meta y su aplicación.
En la decisión sobre la ayahuasca, un brebaje psicoactivo con usos espirituales, repetimos nuestra petición de que Meta explicara a los usuarios que aplica las Normas comunitarias de Facebook en Instagram, con varias excepciones específicas.
En nuestra decisión sobre un cinturón abalorio, una forma de arte indígena norteamericana, pedimos a Meta que evaluara la precisión con la que sus revisores aplican las excepciones sobre la expresión artística y la expresión sobre las infracciones de los derechos humanos. También debería examinar cómo la ubicación de un revisor influye en su capacidad para evaluar con precisión la respuesta a contenido ofensivo, en el que se hace referencia a lenguaje que incita al odio para resistir la opresión y la discriminación.
A medida que Meta vaya respondiendo a estas recomendaciones, y a otras, iremos observando si la empresa cumple sus promesas y cómo lo hace.
Con el tiempo, creemos que el impacto combinado de nuestras recomendaciones instará a Meta a ser más transparente y a beneficiar a los usuarios.
Como pedimos cuentas a Meta, nuestra independencia es crucial. Nuestros fiduciarios desempeñan un papel fundamental en la protección de la independencia del Consejo, y hoy nos complace anunciar como nuevo fiduciario a Stephen Neal, presidente emérito y abogado principal del estudio jurídico Cooley, y presidente de la Fundación Hewlett.
Actualización del caso 2021-017-FB-UA
El mes pasado, anunciamos tres nuevos casos, entre ellos, uno que trataba sobre la toma de posesión de los talibanes en Afganistán. Este caso ya no está disponible para que el Consejo lo revise debido a que un usuario realizó una acción sobre el contenido. El usuario que hizo la apelación del caso ante el Consejo eliminó la publicación y esta ya no está en la plataforma.
Dado que los usuarios de Facebook tienen derecho a eliminar sus contenidos, tenemos en cuenta que este tipo de situaciones se producirán de vez en cuando. Si debido a la acción de los usuarios se retira un caso, haremos un anuncio al respecto de inmediato.
Próximos pasos
Como parte de nuestro compromiso con la transparencia, seguiremos publicando informes de transparencia trimestralmente. Además, el año que viene publicaremos un informe anual en el que evaluaremos las acciones de Meta en torno a la implementación de nuestras decisiones y recomendaciones.