El Consejo asesor de contenido anuló las decisiones originales de Meta en publicaciones de Estados Unidos que trataban sobre el aborto
6 de septiembre de 2023
El Consejo asesor de contenido anuló las decisiones originales de Meta de eliminar tres publicaciones que trataban sobre el aborto y contenían usos figurativos de lenguaje violento como un recurso retórico. A pesar de que Meta reconoció que sus decisiones originales no eran correctas y que ninguna de las publicaciones infringía su política sobre violencia e incitación, estos casos incrementaron la preocupación sobre si el enfoque de Meta para evaluar recursos retóricos violentos afecta a los debates y a la expresión política de manera desproporcionada. Meta debería ofrecer con frecuencia al Consejo los datos que usa para evaluar la precisión de aplicar la política de violencia e incitación, de modo que el Consejo pueda llevar a cabo su propio análisis.
Información de los casos
En esta decisión, usuarios de los Estados Unidos publicaron, en marzo de 2023, el contenido que se considera en estos tres casos relacionados con el aborto.
En el primer caso, un usuario publicó una imagen de manos extendidas, con el texto superpuesto "Pro-Abortion Logic" (Lógica proaborto) en un grupo público de Facebook. La publicación continuaba con "We don’t want you to be poor, starved or unwanted. So we’ll just kill you instead" (No queremos que seas pobre, tengas hambre o no seas querido. Así que, en lugar de eso, te mataremos). El grupo se describe como defensor de la "santidad de la vida humana".
En los otros dos casos, las publicaciones de ambos usuarios se relacionaban con artículos periodísticos sobre un proyecto de ley en Carolina del Sur para aplicar las leyes estatales de homicidio al aborto, lo cual implicaría que la pena de muerte se permitiría a personas que se realizaran abortos. En una de estas publicaciones, en Instagram, la imagen del titular del artículo se acompañaba con un texto que se refería a los legisladores de Carolina del Sur como "so pro-life we’ll kill you dead if you get an abortion" (tan provida que te mataremos si te haces un aborto). La otra publicación, en Facebook, incluía un texto donde se pedía que se aclarara si la posición de los legisladores era que "it’s wrong to kill so we are going to kill you" (matar está mal, así que vamos a matarte).
Cuando los sistemas automáticos de Meta, en especial un clasificador de lenguaje hostil, identificaron el contenido como posiblemente dañino, las tres publicaciones se enviaron a revisión manual. En los tres casos, seis de las siete revisiones manuales determinaron que las publicaciones infringían la norma comunitaria sobre violencia e incitación de Meta debido a que contenían amenazas de muerte. Los tres usuarios apelaron las eliminaciones del contenido. Cuando el Consejo seleccionó estos casos, Meta determinó que sus decisiones originales eran erróneas y restauró las publicaciones.
Conclusiones principales
El Consejo determinó que ninguna de estas tres publicaciones puede considerarse de manera razonable como amenazante o incitadora a la violencia. Aunque cada una incluye alguna variación de "te mataremos" en primera persona y con un tono de burla para enfatizar los puntos de vista en conflicto, ninguna de las publicaciones expresa una amenaza o intención de cometer un acto violento. En los tres casos, seis de los siete moderadores humanos cometieron errores al aplicar las políticas de Meta. El Consejo consideró tres explicaciones diferentes para los errores en estos casos, que pueden representar, tal como sugieren las respuestas de Meta, un subconjunto pequeño y posiblemente evitable de decisiones erróneas sobre las publicaciones. Además, probablemente los revisores, que no son de la región en la que se publicó el contenido, no entendieran el contexto lingüístico o político ni reconocieran el contenido como no violento, a pesar de las palabras agresivas. Es posible que haya también una carencia en la ayuda de Meta, ya que la empresa indicó al Consejo que no ofrece asistencia específica a los moderadores sobre cómo abordar contenido relacionado con el aborto en virtud de la política de violencia e incitación.
Las conversaciones sobre la política del aborto suelen ser extremadamente acaloradas y pueden incluir amenazas que no se permiten en Meta. Por lo tanto, es importante que Meta se asegure de que sus sistemas puedan distinguir con certeza entre amenazas y usos retóricos no agresivos de lenguaje violento.
Dado que ninguno de estos casos es ambiguo, los errores implican que hay margen de mejora en los procesos de aplicación de políticas de Meta. Además de que estas falencias pueden limitar la expresión en casos individuales, estas crean patrones cíclicos de censura a través de errores repetidos y sesgos que surgen por modelos de aprendizaje automático entrenados mediante el contenido ofensivo actual. Asimismo, esos casos muestran que eliminar erróneamente contenido que no infringe las reglas de Meta puede impedir el desarrollo normal de debates acerca de los problemas más controversiales de un país y, por tanto, dificultar el consenso.
Meta no proporcionó al Consejo garantía suficiente de que los errores en estos casos fueran excepciones, y que no representen un patrón sistemático de incongruencias.
El Consejo cree que errores relativamente simples, como en estos casos, son áreas en las que el aprendizaje automático emergente puede generar mejoras significativas. También respalda el reciente avance de Meta en cuanto a la sensibilidad de sus procesos de aplicación de políticas de incitación a la violencia. Sin embargo, el Consejo espera más datos para evaluar a lo largo del tiempo el rendimiento de Meta en este aspecto.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló las decisiones originales de Meta de eliminar tres publicaciones que trataban sobre el aborto.
El Consejo recomienda que Meta lleve a cabo estas acciones:
- Proporcione al Consejo los datos que usa para evaluar la precisión de la aplicación de políticas en cuanto a la política de violencia e incitación. Esta información debería ser lo suficientemente extensa como para que el Consejo pueda validar los argumentos de Meta acerca de que los errores de este tipo en estos casos no son consecuencia de ningún problema con sus procesos de aplicación de políticas.
Más información
Para leer la decisión completa del caso, haz clic aquí.
Para leer una sinopsis de los comentarios del público sobre el caso, haz clic en el archivo adjunto a continuación.