Anulado

Trata de personas en Tailandia

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que ponía el foco en las prácticas de trata de personas en Tailandia.

Tipo de decisión

Resumen

Políticas y temas

Tema
Libertad de expresión, Seguridad
Estándar comunitario
Explotación de personas

Regiones/Países

Ubicación
Tailandia

Plataforma

Plataforma
Facebook

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que ponía el foco en las prácticas de trata de personas en Tailandia. La apelación destaca la importancia de diseñar sistemas de moderación que detecten los contextos de generación de conciencia, ironía, sarcasmo y sátira. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Descripción y contexto del caso

Un usuario de Facebook hizo una publicación en tailandés sobre el negocio de trata de personas tailandesas y su traslado para ser vendidas en Myanmar. La publicación analiza lo que el usuario considera prácticas comunes en este negocio, como presionar a las víctimas para que recluten a otras personas a fin de que formen parte de él. Asimismo, utiliza frases irónicas, como "si quieres ser víctima de trata de personas, no esperes más". El contenido también incluye capturas de pantalla de lo que parecen ser mensajes para intentar reclutar víctimas y de contenido que promociona el negocio.

Meta originalmente eliminó la publicación de Facebook en virtud de la política sobre explotación de personas, por la cual la empresa elimina "contenido que reclute, facilite o explote personas a través de cualquiera de las siguientes formas de trata de personas", como "explotación laboral (incluida la servidumbre por deudas)". La política define la trata de personas como un "negocio en el que se priva a alguien de su libertad con el fin de obtener una ganancia". Esta permite el "contenido que condena o genera conciencia sobre problemas de tráfico ilegal o trata de personas".

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que su eliminación fue incorrecta y restauró el contenido en Facebook. La empresa le indicó al Consejo que, si bien esas imágenes aisladas infringirían la política sobre explotación de personas, el contexto general es claro, por lo que el contenido no incumple ninguna norma.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, para reducir los errores y para ser más justo con los usuarios de Facebook e Instagram.

Importancia del caso

El caso destaca la importancia de diseñar sistemas de moderación que detecten los contextos de generación de conciencia, ironía, sarcasmo y sátira. Estas son formas importantes de opinión y no se deberían eliminar a causa de interpretaciones demasiado literales. En cuanto a la automatización, el Consejo instó a Meta a implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación que deban revertirse a fin de aprender de los errores del sistema de cumplimiento de normas (decisión "Síntomas de cáncer de mama y desnudos", recomendación n.º 5). En lo que respecta a la moderación manual, el Consejo solicitó a Meta garantizar que cuenta con procedimientos adecuados para evaluar el contenido satírico y el contexto relevante de manera correcta, y que priorice para revisión manual las apelaciones basadas en las excepciones de la política (decisión "Meme de 'los dos botones'", recomendaciones n.º 3 y 5). Meta informó la implementación de las dos primeras recomendaciones, pero no publicó información que demuestre que completó dicha implementación; en el caso de la primera recomendación, al cuarto trimestre de 2022, Meta informó haber "completado el lanzamiento global de mensajes nuevos y más específicos que permiten a las personas saber si su contenido se eliminó de Facebook mediante automatización o revisión manual", pero no aportó datos que lo demuestren. En cuanto a la tercera recomendación, Meta informó que "casi había completado el trabajo para encontrar vías que permitieran a los usuarios indicar si su apelación recae en una excepción de la política"; una vez que esta labor se complete, Meta comenzará a evaluar si tomar en cuenta las excepciones de la política es beneficioso para el flujo de trabajo de priorización en general.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas