El Consejo asesor de contenido amplía su alcance a Threads
22 de febrero de 2024
Hoy, el Consejo asesor de contenido ampliará su alcance para incluir Threads, una app de Meta que permite a los usuarios compartir novedades en texto y unirse a conversaciones públicas. Si bien pudimos revisar apelaciones de usuarios de Facebook e Instagram desde octubre de 2020, y tomar decisiones sobre ellas, esto marca un hito: es la primera vez que el Consejo amplía el alcance de su revisión para incluir una nueva app.
Cuando las plataformas de medios sociales abren su proceso de toma de decisiones de moderación de contenido a una supervisión independiente, las decisiones son mejores y más responsables. A la vez, esto genera confianza entre las personas que usan esas plataformas. El Consejo acoge satisfactoriamente la decisión de Meta de ampliar su enfoque a Threads. Creemos que podemos ayudar a Threads a ser más transparente, a adoptar un enfoque internacional y a respetar la libertad de expresión y otros derechos humanos.
¿Qué está sucediendo?
A partir de hoy, las personas que usen Threads podrán cuestionar las decisiones que tome Meta mediante una apelación del contenido que reúna los criterios al Consejo asesor de contenido. El proceso de apelaciones de Threads es similar al de Facebook e Instagram. Una vez que los usuarios hayan agotado el proceso de apelaciones interno de Meta, la empresa emitirá un identificador de referencia del Consejo asesor de contenido que les permitirá enviar sus casos para revisión en el sitio web del Consejo asesor de contenido. Además de los 130 millones de personas que usan Threads, Meta también podrá remitir casos sobre contenido en Threads al Consejo.
¿Cómo el Consejo tomará decisiones sobre contenido en Threads?
Para Threads, al igual que con Facebook e Instagram, seleccionaremos casos que podrían afectar a muchas personas, que sean de suma relevancia para el discurso público o que planteen cuestiones importantes sobre las políticas de Meta. Al abordar problemas que comparten millones de usuarios y proponer soluciones, el impacto de nuestro trabajo se observa en muchas más situaciones que en los casos individuales.
Como lo hace con Facebook e Instagram, el Consejo podrá revisar casos en varios cronogramas diferentes, según la naturaleza del caso, su urgencia y su complejidad. Algunos casos se tratarán como decisiones estándar (en un cronograma de 90 días, con comentarios del público), otros casos (cuando Meta reconoce su error tras la selección del caso por parte del Consejo) serán resúmenes de decisiones emitidas solo con una breve opinión y otros (de especial urgencia) se decidirán con carácter urgente.
Los miembros del Consejo analizarán las decisiones sobre contenido de Meta en función de las Normas comunitarias de Instagram (que se aplican a Threads), los valores de la empresa y sus compromisos con los derechos humanos internacionales, especialmente con los principios de libertad de expresión. Nuestras decisiones serán vinculantes, y Meta deberá implementarlas en un plazo de siete días. También podremos dar recomendaciones sobre el modo en que Meta puede mejorar su enfoque con la moderación de contenido, a las cuales Meta debe responder en un plazo de 60 días.
La empresa nos informó que, como Threads aún está evolucionando rápidamente, por un período de 12 meses y mientras se estabilice, Meta podrá implementar recomendaciones sobre políticas y aplicación de políticas de decisiones sobre Threads, pero no podrá implementar recomendaciones específicas del producto.
Cambio del enfoque de Meta en cuanto a la moderación de contenido
El historial de impacto del Consejo sobre Facebook e Instagram sugiere que también podemos hacer una enorme diferencia en Threads.
Por ejemplo, en respuesta a nuestras recomendaciones, Meta creó el estado de la cuenta, que indica a las personas qué penalizaciones Meta aplicó en su cuenta y por qué. La empresa creó nuevos clasificadores para evitar que el contenido de concientización sobre el cáncer de mama se elimine automáticamente. Asimismo, está por completar un enfoque nuevo y consistente para conservar posible evidencia de atrocidades e infracciones graves de leyes de derechos humanos. Estos son solo algunos ejemplos de cómo el trabajo del Consejo tiene como efecto que el enfoque de Meta sea más transparente, íntegro y global en perspectiva.
El Consejo aportará alrededor de cuatro años de experiencia a su revisión de Threads. Durante este tiempo, hemos evolucionado nuestro enfoque, como los cambios que hicimos el año pasado para tomar más casos, más rápido. En 2023, emitimos decisiones importantes sobre prisioneros de guerra, el ex primer ministro de Camboya Hun Sen y nuestros primeros casos urgentes sobre el conflicto entre Israel y Hamás. También publicamos una opinión de asesoramiento normativo en relación con la información errónea sobre el COVID-19. Nuestras iniciativas continúan en 2024: publicamos decisiones sobre negación del Holocausto, medios manipulados y odio contra personas transgénero. Si bien queda mucho trabajo por hacer, seguiremos exhortando a Meta a que trate a todos sus usuarios equitativamente en todas sus plataformas.
Próximos pasos
Cuando seleccionemos nuestros primeros casos estándar sobre contenido en Threads, lo anunciaremos en nuestro sitio web e invitaremos a las personas a enviar comentarios. Publicaremos nuestras decisiones finales en el sitio web del Consejo asesor de contenido.
Nota: El Consejo asesor de contenido es una organización independiente que analiza decisiones de Meta para eliminar o conservar contenido en Facebook, Instagram y Threads en una cantidad determinada de casos emblemáticos. El Consejo revisa, y cuando es necesario, revierte las decisiones de la empresa. Las decisiones del Consejo son vinculantes para Meta. El Consejo también realiza recomendaciones para mejorar el enfoque de Meta sobre la moderación de contenido.