Anunciamos los próximos casos y cambios en los estatutos del Consejo
2 de marzo de 2021
El Consejo anuncia hoy nuevos casos y cambios en los estatutos que regulan nuestro trabajo.
Selección de casos
Desde que comenzamos a aceptar casos en octubre de 2020, el Consejo recibió más de 220.000 apelaciones. No podemos atender todas, por lo que priorizamos los casos que puedan afectar a muchos usuarios de todo el mundo, que sean de suma relevancia para el discurso público o que planteen preguntas importantes sobre las políticas de Facebook.
Estos son los casos que anunciamos hoy:
2021-004-FB-UA
Caso remitido por un usuario
Enviar comentario público aquí.
En enero de 2021, el usuario A dejó un comentario en el que resumía su experiencia de primera mano durante las protestas recientes en apoyo al líder de la oposición rusa, Alexei Navalny. En el comentario, el usuario A llamó al usuario B, quien criticaba a los manifestantes, un "bot común y cobarde" [банальный трусливый бот].
El 24 de enero, el usuario B comentó una publicación que consistía en varias fotos, un video y texto de las protestas en apoyo a Alexei Navalny, que se llevaron a cabo en San Petersburgo y en toda Rusia el 23 de enero. El usuario B afirmó que no sabía lo que había sucedido en San Petersburgo, pero que todos los manifestantes en Moscú eran niños pequeños, mentalmente "lentos" y que los estaban "usando". Además, agregó que los manifestantes no eran la voz del pueblo, sino una "obra de teatro". Otros usuarios empezaron a desafiar esta crítica de los manifestantes en los comentarios.
El usuario A desafió la afirmación del usuario B. El usuario A se identificó como una persona mayor que participó en las protestas de San Petersburgo con sus colegas e hijos adultos. El usuario A declaró que había tantos manifestantes que perdió a sus compañeros en la multitud. Además, afirmó que vio a manifestantes mayores y discapacitados. Expresó orgullo por los jóvenes que participaron en las protestas y rechazó la afirmación de que alguien los había manipulado. En sus palabras finales, el usuario A llamó al usuario B un "bot común y cobarde" [банальный трусливый бот].
El usuario B fue la única persona que reportó el comentario. Facebook lo eliminó en virtud de su norma comunitaria sobre bullying y acoso, que estipula la eliminación de contenido cuyo propósito sea degradar o avergonzar a personas. En algunos casos, Facebook exige que la misma persona que fue objeto de bullying o acoso reporte la situación.
En su apelación, el usuario A explicó al Consejo que había compartido la experiencia de primera mano de las protestas y que estaba respondiendo a información obviamente falsa. El usuario A agregó que creía que el usuario B era "un bot que trabaja bajo órdenes, sin ser testigo de los acontecimientos ni participar en ellos". El usuario A indicó, además, que su opinión sobre este usuario no había cambiado, que el término "bot" no era una "palabra grosera" y que no apoyaba el terrorismo ni las acciones ilegales.
Al Consejo le gustaría recibir comentarios públicos sobre lo siguiente:
- Si la decisión de Facebook cumplía con su norma comunitaria sobre bullying y acoso.
- Si la decisión de Facebook y la norma comunitaria sobre bullying y acoso cumplía con sus valores y responsabilidades en materia de derechos humanos, teniendo en cuenta la importancia de la libre expresión y la necesidad de garantizar respuestas escalables a los daños ocasionados por el bullying y el acoso.
- Información de contexto en lo que respecta al uso o la aceptación habitual de los términos equivalentes a "банальный трусливый бот" ("bot común y cobarde") al abordar temas emotivos en medios sociales, específicamente en el idioma ruso.
- Los impactos de la aplicación de las Normas comunitarias de Facebook en los puntos de vista políticos discrepantes o de minorías en aquellos contextos en los que los gobiernos restringen habitualmente la expresión crítica.
- Investigación de las campañas de desinformación e información errónea contra los participantes en las protestas de enero en Rusia, y cómo se divulga en medios sociales, incluidas pruebas de comportamientos no auténticos coordinados y actores implicados.
2021-005-FB-UA
Caso remitido por un usuario
Enviar comentario público aquí.
En diciembre de 2020, un usuario de Facebook en los Estados Unidos publicó un comentario que contenía una adaptación del meme de los "dos botones". Este meme mostraba el mismo personaje de dibujo animado en pantalla dividida del meme original, pero el rostro del personaje se sustituyó por una bandera turca. El personaje de dibujo animado tenía su mano derecha sobre su cabeza y parecía estar sudando. Encima del personaje de dibujo animado, en la otra mitad de la pantalla dividida, había dos botones rojos con las etiquetas correspondientes en inglés: "El genocidio armenio es una mentira" y "Los armenios eran terroristas que se lo merecían". Antes y después del meme aparecía el emoji de "cara pensante".
El comentario del usuario era una respuesta a una publicación que contenía la imagen de una persona con un niqab y texto superpuesto en inglés que decía: "No todos los prisioneros están detrás de las barras". En este punto, el Consejo no tiene acceso a todos los comentarios que intervinieron, y es posible que el meme haya sido una respuesta a uno de dichos comentarios.
Facebook eliminó la publicación conforme a su norma comunitaria sobre contenido cruel e insensibledespués de que otro usuario de Facebook la reportara. Según esta norma, Facebook elimina el contenido que "señala a víctimas de daños físicos o emocionales", incluidos los "intentos explícitos de burlarse de las víctimas y [...] los intentos implícitos, muchos de los cuales adoptan la forma de memes o GIF". Posteriormente, Facebook volvió a clasificar la eliminación para incluirla en su norma comunitaria sobre lenguaje que incita al odio.
El usuario afirmó en su apelación a Facebook que los "acontecimientos históricos no se deberían censurar" y que su comentario no tenía el propósito de ofender, sino de indicar "la ironía de un acontecimiento histórico particular". El usuario también especula que Facebook malinterpretó su comentario como un ataque y que, incluso si el contenido invoca "la religión y la guerra", no es un "tema candente". Asimismo, el usuario opina que Facebook y sus políticas son excesivamente restrictivos, y plantea que "el humor, como muchas otras cosas, es subjetivo, y algo ofensivo para una persona puede ser divertido para otra".
Al Consejo le gustaría recibir comentarios públicos sobre lo siguiente:
- ¿La decisión de Facebook de eliminar la publicación fue conforme a su norma comunitaria sobre contenido cruel e insensible, específicamente la regla contra los intentos explícitos e implícitos de burlarse de las víctimas?
- Asimismo o de forma alternativa, ¿la decisión de Facebook de eliminar la publicación fue conforme a su norma comunitaria sobre lenguaje que incita al odio, por ejemplo, su regla en relación con las burlas contra las víctimas de un crimen de odio?
- Si la decisión de Facebook de eliminar la publicación es conforme a los valores declarados de la empresa y las responsabilidades en materia de derechos humanos.
- Cualquier aporte específico que las personas quieran comentar sobre lo que sepan del contexto social, político y cultural en Armenia, Turquía y las comunidades de la diáspora en relación con la intención y el impacto posibles de la publicación.
- Cómo Facebook puede y debería abordar el humor o la sátira en la aplicación de sus políticas.
- Investigación sobre el discurso actual en relación con los acontecimientos a los que alude el meme, incluidos los efectos de suprimir este tipo de discurso, ya sea por iniciativa de Facebook o como consecuencia de una medida gubernamental.
Comentarios públicos
Si tú o tu organización consideran que pueden contribuir con perspectivas valiosas que ayuden a tomar una decisión sobre estos casos, puedes enviar los aportes a través del enlace que aparece arriba.
Al completar el primer conjunto de casos del Consejo, modificamos y mejoramos el proceso de comentarios públicos con base en las opiniones de los participantes. Como parte de ello, ampliaremos el período para hacer comentarios públicos a 14 días en todos los casos. Esperamos que, de este modo, la mayor cantidad posible de personas y organizaciones puedan participar en el trabajo del Consejo.
En vista de estos cambios, el período para hacer comentarios públicos sobre los casos que se anunciaron hoy terminará a las 15:00 UTC del martes, 16 de marzo de 2021.
Actualización de estatutos
También trabajamos en varios cambios en los estatutos a fin de ser más eficaces como organización. Por consiguiente, hoy anunciamos cambios a los cronogramas para la manera en que se deciden e implementan los casos.
Los estatutos establecen un período de 90 días para que el Consejo decida los casos y Facebook los implemente, que empieza con la última decisión de Facebook sobre un caso. Conforme a los estatutos revisados, este período de 90 días empieza cuando el Consejo asigne un caso al panel. Gracias a esta actualización, todos los casos tendrán el mismo tiempo para su deliberación, independientemente del momento en el que Facebook o un usuario los remitan al Consejo.
Otros cambios permitirán que el Consejo actúe con prontitud al decidir casos que Facebook remita para revisión rápida, que se debe completar en 30 días. Por ejemplo, los copresidentes, en consulta con el director del Consejo, ahora pueden garantizar que los casos rápidos se asignen a paneles que puedan deliberar sobre ellos en un plazo de 30 días. Los paneles también podrán reducir el tiempo que tengan los usuarios para enviar sus declaraciones.
Puedes leer la totalidad de nuestros estatutos actualizados aquí.
Próximos pasos
En las siguientes semanas, los miembros del Consejo deliberarán sobre los casos que se anunciaron hoy. Cuando hayan tomado sus decisiones finales, las publicaremos en el sitio web del Consejo asesor de contenido.