Informe anual de 2022: El Consejo asesor de contenido examina los cambios introducidos por Meta para dotar de equidad y transparencia a sus plataformas
6 de junio de 2023
Hoy publicamos nuestro informe anual de 2022. En él se explica de manera exhaustiva el trabajo del Consejo en 2022, incluida la publicación de las primeras opiniones de asesoramiento normativo sobre políticas y la creciente repercusión de nuestras recomendaciones sobre la forma en que las personas experimentan Facebook e Instagram.
Lee nuestro informe anual en inglés aquí.
Lee nuestro informe anual en español aquí.
Nota: En las próximas semanas publicaremos también este informe en árabe, chino, francés, hindi y ruso.
Transformar los compromisos en impacto
Desde que publicamos nuestras primeras decisiones en enero de 2021, Meta aplicó muchas de nuestras recomendaciones. Gracias a estos cambios, la empresa es más transparente y justa en el trato de sus usuarios.
Desde enero de 2021 hasta principios de abril de 2023, cuando se finalizó este informe anual, el Consejo formuló un total de 191 recomendaciones a Meta. En aproximadamente dos tercios de los casos, Meta aplicó total o parcialmente la recomendación, o bien informó sobre los progresos realizados en su aplicación.
En 2022, fue alentador ver que, por primera vez, Meta introdujo cambios sistémicos en sus reglas y en la forma de aplicarlas, incluidas las notificaciones a los usuarios y sus normas sobre organizaciones peligrosas. Aunque sabemos que aún queda mucho por hacer, en el informe anual de hoy se destacan varios ejemplos del impacto del Consejo hasta la fecha.
Explicar a los usuarios por qué se eliminó su contenido
La recomendación más frecuente del Consejo es que Meta explique a los usuarios por qué se eliminó su contenido.
En el pasado, veíamos cómo los usuarios se quedaban sin saber por qué Meta eliminaba su contenido. En respuesta a nuestras recomendaciones, Meta introdujo nuevos mensajes a escala mundial, en los que se informa a los usuarios sobre la política específica que infringieron en relación con las políticas de lenguaje que incita al odio, personas y organizaciones peligrosas, y bullying y acoso. Asimismo, y en respuesta a otra recomendación, Meta también realizó una implementación mundial de mensajes para informar a los usuarios sobre si la eliminación de su contenido se debió a una revisión humana o automatizada. Creemos que dar a las personas más información sobre cómo y por qué se eliminó su contenido fomentará la confianza y mejorará la equidad en la aplicación de las normas por parte de Meta.
Hacer las normas más coherentes y transparentes
En el informe anual de hoy, también se muestra cómo, gracias a nuestras recomendaciones, las reglas de Meta son más claras y coherentes.
Como consecuencia de nuestras propuestas, Meta introdujo un protocolo de la política de crisis para hacer más coherentes sus respuestas a las situaciones de crisis. Además, recientemente anunció planes para crear un nuevo equipo de coordinación de crisis que se encargue de supervisar las operaciones 24 horas al día, 7 días a la semana, de las crisis inminentes y emergentes.
Meta también puso en marcha una revisión de su política sobre personas y organizaciones peligrosas y creó una nueva norma comunitaria sobre desinformación, que consolida y aclara sus reglas en un solo lugar. Por último, a raíz de nuestra preocupación por el opaco sistema de sanciones de Meta y por el temor de los usuarios a que los condenen a la "cárcel de Facebook", la empresa modificó su sistema de "faltas" para hacerlo más justo y transparente.
Proteger la importante expresión de periodistas, manifestantes y defensores de la concientización sobre el cáncer de mama
En el informe anual, también se muestra cómo nuestras recomendaciones están ayudando a proteger expresiones importantes de periodistas, manifestantes y defensores de la concientización sobre el cáncer de mama en Facebook e Instagram.
En respuesta a nuestra opinión de asesoramiento normativo sobre el programa de verificación cruzada de Meta, por ejemplo, la empresa se comprometió a ampliar las protecciones a quienes corren un riesgo especial de que su contenido se elimine erróneamente, como los periodistas y los defensores de los derechos humanos.
También protegimos la voz de los usuarios durante las transformaciones políticas y sociales. Como parte de nuestra decisión sobre el "lema de protesta en Irán", instamos a Meta a proteger mejor la expresión política en este país, donde las protestas históricas son objeto de violenta represión. En respuesta, Meta permitió que se compartiera el término "Marg bar Khamenei" (que se traduce literalmente como "Muerte a [el líder supremo de Irán] Khamenei") en el contexto de las protestas en curso en Irán y revocó anteriores medidas de aplicación de políticas contra este tipo de contenido.
Por último, en nuestra decisión sobre los síntomas del cáncer de mama y la desnudez, instamos a Meta a mejorar la forma en que detecta las imágenes con texto superpuesto, de modo que los mensajes de concientización sobre los síntomas del cáncer de mama no se marquen erróneamente para su revisión. Como contestación, Meta mejoró sus técnicas para identificar el contexto del cáncer de mama en el contenido de Instagram.
Estas mejoras se aplican desde julio de 2021 y, entre el 26 de febrero y el 27 de marzo de 2023, contribuyeron a que se enviaran a revisión humana otros 2.500 contenidos que antes se habrían eliminado. Aunque es difícil contextualizarla sin un denominador, esta primera métrica de impacto muestra cómo nuestra recomendación ayudó a Meta a mitigar un riesgo sistémico derivado de la forma en que la empresa estaba gestionando este tipo de contenido.
Un diálogo nuevo y transparente
Al hacer públicas estas recomendaciones y supervisar públicamente las respuestas de Meta y su aplicación, abrimos un espacio de diálogo transparente con la empresa que antes no existía. Esperamos que nuestras recomendaciones susciten un debate público sobre el modo en que las plataformas pueden abordar algunos de los desafíos más complejos de la moderación de contenido.
En muchos casos, nuestras propuestas recogen los llamamientos que grupos de la sociedad civil y otras partes interesadas llevan muchos años haciendo, o se basan en ellos, lo que obliga a Meta a considerar y responder públicamente a peticiones de acción de larga data. El Consejo desea reiterar su gratitud a estas organizaciones por compartir sus ideas y conocimientos.
La labor del Consejo en 2022
Además de destacar el creciente impacto del Consejo en Meta, en nuestro informe anual también se ofrece una visión general de los casos sometidos a este ente.
En 2022, recibimos casi 1,3 millones de apelaciones de usuarios para restaurar o eliminar contenido en Facebook o Instagram, lo que supone un aumento de aproximadamente una cuarta parte en comparación con 2021. Más de dos tercios de las apelaciones para restaurar contenido en 2022 se referían a mensajes eliminados en virtud de las reglas de Meta sobre violencia e incitación o lenguaje que incita al odio.
Después de que el comité de selección de casos del Consejo preselecciona los casos para su revisión, en ciertas ocasiones, Meta determina que su decisión original sobre un contenido era incorrecta y la revoca. En 2022, Meta identificó que su decisión original era incorrecta en 32 de los 50 casos preseleccionados por el Consejo. Si bien se trata solo de una pequeña muestra y el Consejo busca intencionadamente los casos más desafiantes y difíciles, es preocupante que, en casi dos tercios de los casos preseleccionados, Meta considerara que su decisión original había sido incorrecta.
En el informe anual también se explica cómo, en 2022:
- Publicamos nuestras primeras opiniones de asesoramiento normativo sobre el intercambio de información residencial privada y el programa de verificación cruzada de Meta.
- Anulamos la decisión original de Meta sobre un contenido en tres cuartas partes de nuestras decisiones sobre casos.
- Recibimos más de 600 comentarios del público de personas y organizaciones de todo el mundo.
- Ampliamos el ámbito de aplicación para incluir la posibilidad de agregar pantallas de advertencia al contenido elegible.
- Anunciamos siete prioridades estratégicas: elecciones y espacio cívico, situaciones de crisis y conflicto, género, lenguaje que incita al odio contra grupos marginados, uso gubernamental de las plataformas de Meta, trato justo a los usuarios, y aplicación automatizada de políticas y selección de contenido.
Evolución de nuestro trabajo con Meta
En febrero de 2023, anunciamos planes para revisar más casos, más rápido. Al aumentar el número de decisiones que producimos y la velocidad con la que lo hacemos, podremos abordar una mayor cantidad de los grandes desafíos de moderación de contenido. Desde febrero, anunciamos diez nuevos casos para consideración, así como una opinión de asesoramiento normativo sobre el término árabe "Shaheed" (que a menudo se traduce como "mártir"), los cuales publicaremos en las próximas semanas y meses.
En el informe anual se establecen seis objetivos que nos ayudarán a aumentar nuestro impacto en 2023. Entre ellos se incluye la publicación de las primeras decisiones resumidas, en las que se examinan casos en los que Meta revocó su decisión original sobre un contenido después de que llamáramos la atención de la empresa sobre el caso. También tenemos previsto emitir nuestras primeras decisiones aceleradas en 2023, en las que se revisará la decisión de Meta sobre una publicación en cuestión de días, y esperamos recibir nuestro primer caso acelerado de la empresa. También nos proponemos completar la composición inicial del Consejo, profundizar el compromiso en torno a nuestras siete prioridades estratégicas, llevar a cabo planes a largo plazo para ampliar el alcance, e instar a Meta a que aporte pruebas de su aplicación e impacto.
Compartir los beneficios de la supervisión independiente
Desde el principio, el Consejo se concibió para poner a prueba un enfoque independiente de la moderación de contenido que, de tener éxito, podría aplicarse también a otras empresas. En los últimos tres años, adquirimos una gran experiencia en supervisión independiente que puede ayudar a las empresas a tomar decisiones más sólidas basadas en el respeto de la libertad de expresión y otros derechos humanos.
En el informe anual se comparten reflexiones sobre cómo debe funcionar un consejo asesor para la gobernanza del contenido, desde la importancia de la diversidad hasta el valor de las normas internacionales de derechos humanos en la toma de decisiones. Dado que la nueva normativa conlleva nuevos requisitos, también hay áreas específicas, como la transparencia y las notificaciones a los usuarios, en las que creemos que podemos aportar parte de la solución.
Próximos pasos
Como parte de nuestro compromiso con la transparencia, también publicamos informes trimestrales de transparencia a lo largo del año. En los próximos días publicaremos nuestro informe trimestral de transparencia del primer trimestre de 2023. En él, se destacarán otros ejemplos del impacto del Consejo en Meta y se incluirá una revisión del comunicado de Meta de enero de 2023 sobre el expresidente Trump.