El Consejo asesor de contenido anunció siete prioridades estratégicas
20 de octubre de 2022
En octubre de 2020, el Consejo asesor de contenido empezó a aceptar casos. Por primera vez, si se eliminaba la publicación de un usuario de Facebook o Instagram y este agotaba las instancias del proceso de apelación de la empresa, podía objetar esta decisión apelándola ante una organización externa independiente.
Dos años después, anunciamos siete prioridades estratégicas en las que queremos trabajar con las partes interesadas para reformar el enfoque de moderación de contenido de Meta. Esto aumentará nuestro impacto en las áreas en las que podemos hacer la mayor diferencia en la experiencia de las personas en Facebook e Instagram. Además, a medida que nuevas reglamentaciones aumentan los requisitos para empresas tecnológicas, estamos listos para asociarnos con empresas, organismos reguladores y otras partes para compartir los beneficios de un enfoque de moderación de contenido independiente y basado en principios.
Presentamos nuestras prioridades estratégicas
Elegimos nuestras siete prioridades estratégicas en función del análisis de casos enviados al Consejo y los problemas que enfrentan los usuarios de todo el mudo. Dado que estas prioridades guiarán los casos que el Consejo seleccionará para su revisión, animamos a las personas a considerar estas prioridades al enviar apelaciones al Consejo y al explicar los motivos por los que objetan las decisiones de Meta.
Nuestras prioridades estratégicas son:
- Elecciones y espacio cívico
Las empresas de medios sociales enfrentan desafíos al aplicar sus políticas con coherencia a expresiones políticas en muchas partes del mundo, incluido durante elecciones y protestas a gran escala. Destacamos la importancia de proteger la expresión política en nuestra decisión del caso "Manifestaciones en Rusia a favor de Navalny", mientras que nuestra decisión del caso "Mención de los talibanes en los informes de noticias" abordó cuestiones de libertad de los medios de comunicación. El Consejo está interesado en explorar las responsabilidades de Meta en elecciones, protestas y otros momentos clave de participación cívica.
- Situaciones de conflicto y crisis
En momentos de crisis, como conflictos armados, ataques terroristas y emergencias sanitarias, los medios sociales pueden ayudar a las personas a mantenerse seguras, pero también pueden crear un entorno de propagación de información errónea y odio. Nuestras decisiones de los casos "Presuntos delitos en Raya Kobo" y "Consejo de comunicaciones de Tigray" examinaron publicaciones relacionadas con el conflicto en Etiopía, mientras que nuestra decisión del caso sobre el expresidente Trump llevó a Meta a adoptar un protocolo de políticas ante crisis. El Consejo está interesado en explorar la preparación de Meta para los daños potenciales a los que sus productos podrían contribuir durante conflictos armados, disturbios y otras emergencias.
- Género
Mujeres, personas no binarias y personas trans se enfrentan a obstáculos en el ejercicio de su derecho a la libertad de expresión en Meta. En nuestra decisión del caso "Síntomas de cáncer de mama y desnudos", por ejemplo, los sistemas automatizados de Meta no aplicaron excepciones respecto a la concientización sobre el cáncer de mama, lo que llevó a que se eliminara de Instagram información importante sobre la salud. El Consejo está interesado en explorar los obstáculos de género que enfrentan las mujeres y las personas LGBTQI+ en el ejercicio de su derecho a la libertad de expresión, incluidos el acoso y la violencia de género, y los efectos de las distinciones basadas en el género en la política de contenido.
- Lenguaje que incita al odio contra grupos marginados
El lenguaje que incita al odio crea un entorno de discriminación y hostilidad hacia grupos marginados. Suele ser específico al contexto, codificado y con daños resultantes de efectos que se acumulan gradualmente con el tiempo. Nuestra decisión del caso "Representación de Zwarte Piet" concluyó que permitir la acumulación de imágenes de caras pintadas de negro caricaturizando a personas negras crearía un entorno discriminatorio para las personas de la comunidad negra, mientras que nuestras decisiones de los casos "Cinturón de Wampum" y "Reapropiación de términos árabes" examinaron respuestas a contenido ofensivo que hacían referencia a lenguaje que incita al odio para resistirse a la discriminación. El consejo está interesado en explorar cómo Meta debería proteger a los miembros de grupos marginados a la vez que asegura que el cumplimiento de las normas no se dirija incorrectamente a aquellos que combaten el odio.
- Uso de plataformas de Meta por parte de Gobiernos
Los Gobiernos usan Facebook e Instagram para comunicar sus políticas y solicitar a Meta que elimine contenido. En respuesta a nuestra decisión del caso "Aislamiento de Öcalan", Meta acordó proporcionar información sobre el contenido que se elimina por infringir sus Normas comunitarias tras recibir un reporte de parte de un Gobierno. Asimismo, nuestra próxima decisión del caso "Música drill británica" analizará cómo Meta debería responder a solicitudes de las autoridades de un país. El Consejo está interesado en explorar cómo los actores estatales usan las plataformas de Meta y el efecto que tiene esto en la moderación de contenido.
- Tratamiento justo de los usuarios
Cuando se elimina contenido de las personas de Facebook e Instagram, no siempre se les comunica qué regla se infringió, y esta falta de transparencia puede crear la percepción de que los usuarios no reciben el mismo trato. El Consejo está interesado en explorar cómo Meta puede esforzarse más por tratar a sus usuarios como clientes al enviar notificaciones al usuario más específicas, asegurar a las personas que siempre pueden apelar las decisiones de Meta ante la empresa y ser más transparentes en temas como las "faltas" y la verificación cruzada.
- Aplicación de políticas y selección de contenido automáticas
Si bien los algoritmos son esenciales para moderar contenido a gran escala, falta transparencia en torno a cómo funcionan los sistemas automatizados de Meta y cómo afectan el contenido que ven los usuarios. Nuestra decisión del caso "Caricatura sobre la policía colombiana" demostró cómo la automatización puede amplificar el impacto de decisiones incorrectas de moderación de contenido. En respuesta a nuestra decisión del caso "Síntomas de cáncer de mama y desnudos", Meta está probando notificaciones que indican a las personas si se tomaron medidas de aplicación de políticas debido a una revisión manual o automatizada. El Consejo está interesado en explorar cómo debería diseñarse la aplicación de políticas automatizada, la precisión de los sistemas automatizados y la importancia de mayor transparencia en este tema.
Colaborar con partes interesadas para expandir nuestro impacto
Como Consejo, nuestros logros hasta ahora fueron posibles gracias al esfuerzo de investigadores, grupos de sociedad civil y otros que trabajaron muchos años en estos temas. La pericia y el conocimiento local de estas partes interesadas será fundamental para encontrar soluciones a largo plazo a nuestras prioridades estratégicas y los desafiantes problemas que estas plantean.
Para todas nuestras prioridades estratégicas, seguiremos trabajando con las partes interesadas para comprender las políticas y las prácticas de cumplimiento que Meta debe mejorar con mayor urgencia, así como el tipo de casos que podría brindar la oportunidad de abordar estos temas prioritarios.
Queremos asociarnos con organizaciones de todo el mundo para lograr este objetivo a través de nuestro proceso de comentarios del público, mesas redondas y conversaciones individuales. Para conocer cómo tu organización puede participar, regístrate para recibir novedades del Consejo aquí o ponte en contacto con engagement@osbadmin.com.
Respaldo de un enfoque independiente basado en principios
Encontrar soluciones para los problemas que surgen de nuestras prioridades estratégicas es importante, no solo para Meta, sino para todas las empresas de medios sociales. Las nuevas reglamentaciones también introducen nuevos requisitos para las empresas de tecnología, lo que requerirá que muchas deban cambiar su enfoque. A pesar de que no hay una única solución y muchos actores deberán hacer su parte, creemos que el enfoque independiente basado en los derechos humanos del Consejo puede ser parte de ella.
Actualmente, las empresas de medios sociales se enfrentan a un desafío importante de moderación de contenido: ¿qué reglas deberían aplicar a miles de millones de personas con distintas nacionalidades, culturas e idiomas? Creemos que las normas internacionales de derechos humanos son una parte esencial de la respuesta. Estas se aplican por igual a todas las personas y proporcionan un marco de trabajo coherente para considerar el derecho de un usuario a la libertad de expresión junto con otros derechos humanos, como el derecho a la vida o a la privacidad.
También vemos una mayor aceptación del valor de la supervisión independiente en el sector de la tecnología y otros. Muchas empresas están abriendo sus procesos internos e invitando a terceros sin intereses comerciales en la empresa a revisar sus decisiones. Creemos que este tipo de análisis conduce a la toma de mejores decisiones más sólidas a largo plazo.
Como Consejo, acumulamos mucho conocimiento en los últimos dos años. Esperamos que el enfoque independiente basado en los derechos humanos del Consejo proporcione un marco de trabajo confiable para otras empresas de medios sociales, organismos reguladores y organizaciones de sociedad civil. Además, estamos listos para establecer nuevas asociaciones y compartir lo que aprendimos en nuestro objetivo en común de mejorar los medios sociales.
Próximos pasos
En los últimos dos años, recibimos casi dos millones de apelaciones de usuarios. A través de las 130 recomendaciones que realizamos hasta el momento, empezamos a transformar el enfoque de moderación de contenido de Meta. Con el anuncio de hoy sobre nuestras prioridades estratégicas, queremos profundizar nuestro impacto y trabajar con partes interesadas de todo el mundo para encontrar soluciones a largo plazo. También estamos listos para asociarnos con empresas, organismos reguladores y otras partes para compartir los beneficios de un enfoque de moderación de contenido independiente y basado en principios.