Publicado
Programa de verificación cruzada de Meta
Esta opinión de asesoramiento normativo analiza el programa de verificación cruzada de Meta y plantea cuestiones importantes acerca de cómo la empresa trata a sus usuarios más influyentes.
En octubre de 2021, tras publicarse en el Wall Street Journal información sobre el programa de verificación cruzada de Meta, el Consejo asesor de contenido aceptó una solicitud de la empresa para revisar dicho sistema y ofrecer recomendaciones para mejorarlo. Esta opinión de asesoramiento normativo es nuestra respuesta a esa solicitud. Analizamos el sistema de verificación cruzada de Meta teniendo en cuenta los compromisos de la empresa con los derechos humanos y sus valores declarados, lo que nos hizo plantearnos cuestiones importantes acerca de cómo la empresa trata a sus usuarios más influyentes.
Haz clic aquí para leer la versión completa de nuestra opinión de asesoramiento normativo relativa al programa de verificación cruzada de Meta.
Ten en cuenta lo siguiente: ya hay disponibles traducciones del resumen de nuestra opinión de asesoramiento normativo, pero, por ahora, la versión completa solo está en inglés. Actualmente se está traduciendo a otros idiomas, cuyas versiones se subirán a nuestro sitio web lo antes posible en 2023.
Cuando el Consejo empezó a trabajar en esta opinión de asesoramiento normativo, Meta manifestó que, en aquel momento, llevaba a cabo unos 100 millones de intentos diarios de aplicar sus políticas. Con semejante volumen, aunque la empresa pudiera tomar decisiones de contenido con un 99% de precisión, seguiría cometiendo un millón de errores cada día. En este sentido, aunque un sistema de revisión de contenido debería tratar equitativamente a todos los usuarios, el programa de verificación cruzada se enfrenta a desafíos mayores al moderar volúmenes de contenido tan grandes.
Según Meta, tomar decisiones a esa escala implica que, en ocasiones, se elimine erróneamente contenido que no infringe sus políticas. Para evitar que esto suceda, el programa de verificación cruzada recurre a fases adicionales de revisión manual cuando se trata de determinadas publicaciones que, en un primer momento, se habían identificado como infractoras. Cuando los usuarios que figuran en las listas de verificación cruzada de Meta publican contenido de estas características, este no se elimina de inmediato, como es el caso de la mayoría de las personas, sino que permanece publicado a la espera de revisión manual adicional. Meta denomina este tipo de verificación cruzada "revisión secundaria de respuesta rápida". A finales de 2021, la empresa incluyó en el proceso de verificación cruzada determinadas publicaciones marcadas para revisión adicional en función del contenido, y no de la identidad del autor. Meta denomina este tipo de verificación cruzada "revisión secundaria general".
Al llevar a cabo nuestro análisis, detectamos varias deficiencias en el programa de verificación cruzada de Meta. La empresa había manifestado al Consejo que uno de los fines de la verificación cruzada es promover sus compromisos con los derechos humanos. Sin embargo, consideramos que dicho programa parece orientado más bien a satisfacer los intereses de Meta. El Consejo es consciente de que se trata de una empresa, pero el hecho de ofrecer protección adicional a ciertos usuarios (elegidos en gran medida en función de intereses empresariales) hace posible que contenido que, en condiciones normales, se eliminaría rápidamente permanezca publicado durante más tiempo, lo que puede provocar daños. Asimismo, creemos que a Meta no realizó un seguimiento de los datos para saber si la verificación cruzada se traduce en una toma de decisiones más adecuadas. Por otra parte, también manifestamos nuestra preocupación por la falta de transparencia del programa.
Teniendo en cuenta todo lo anterior, el Consejo realizó varias recomendaciones a Meta. Cualquier sistema cuya finalidad sea evitar errores debe priorizar la libertad de expresión, un derecho humano importante, incluida la expresión de importancia pública. Como parte de sus iniciativas por mejorar sus procesos para todos los usuarios, Meta debería tomar medidas para mitigar el daño que provoca el contenido que permanece publicado durante la fase de revisión adicional. Por otra parte, debería mejorar de manera radical la transparencia de sus sistemas.
Conclusiones principales
El Consejo reconoce que el volumen y la complejidad del contenido que se publica en Facebook e Instagram plantea desafíos a la hora de diseñar sistemas que respeten los compromisos de Meta en materia de derechos humanos. No obstante, el sistema de verificación cruzada actual presenta carencias en aspectos fundamentales que la empresa debe abordar:
Trato desigual de los usuarios. El sistema de verificación cruzada protege más a unos usuarios que a otros. Si se determina que la publicación de un usuario que figura en las listas de verificación cruzada de Meta infringe las normas de la empresa, esta permanece en la plataforma a la espera de una revisión adicional. Después, Meta aplica todas las políticas, incluidas excepciones y disposiciones que dependen del contexto, lo que probablemente aumenta las posibilidades de que la publicación siga visible en la plataforma. Por el contrario, existen muchas menos probabilidades de que el contenido del resto de los usuarios llegue a manos de revisores que puedan aplicar toda la gama de reglas de Meta. Este trato desigual es especialmente preocupante si tenemos en cuenta la falta de transparencia acerca de la verificación cruzada de Meta. Es cierto que existen criterios claros en cuanto a la inclusión de socios comerciales y líderes gubernamentales en las listas; sin embargo, el acceso al programa es menos claro para aquellos usuarios cuyo contenido puede resultar importante desde el punto de vista de los derechos humanos (como en el caso de los periodistas y las organizaciones de sociedad civil).
Retraso en la eliminación de contenido infractor. El contenido de los usuarios incluidos en las listas de verificación cruzada que se considera que incumple las reglas de Meta permanece publicado en la plataforma mientras se somete a una revisión adicional. Meta informó al Consejo que, en promedio, se puede tardar más de cinco días en llegar a una decisión con respecto al contenido que publican estos usuarios. Dicho de otro modo, el sistema de verificación cruzada permite que el contenido que se ha identificado que infringe las reglas de la empresa siga estando disponible en Facebook e Instagram en un momento de máxima viralidad y en el que su potencial para provocar daños es elevado. Es posible que Meta no pueda hacer frente al volumen de contenido seleccionado para la verificación cruzada, por lo que el programa sufre de una sobrecarga de trabajo que retrasa la toma de decisiones.
Incapacidad para hacer un seguimiento de métricas clave. Las métricas que Meta emplea actualmente para medir la efectividad de la verificación cruzada no abarcan todos los aspectos fundamentales. Por ejemplo, Meta no facilitó al Consejo información que demostrara que realiza un seguimiento de si las decisiones que se toman en el contexto de la verificación cruzada son más o menos adecuadas que las que se toman mediante los mecanismos de control de calidad habituales. Sin esa información, es difícil saber si el programa está cumpliendo sus objetivos principales relacionados con tomar decisiones correctas sobre contenido. Tampoco resulta fácil evaluar si la verificación cruzada facilita que Meta se desvíe de sus políticas.
Falta de transparencia en cuanto al funcionamiento de la verificación cruzada. Al Consejo también le preocupa la poca información sobre la verificación cruzada que Meta proporcionó tanto al público como a sus usuarios. Actualmente, Meta no informa a sus usuarios si figuran en listas de verificación cruzada ni comparte públicamente sus procedimientos de creación y auditoría de esas listas. No queda claro, por ejemplo, si las entidades que publican contenido que infringe las normas reiteradamente siguen formando parte de las listas de verificación cruzada debido a su perfil. Esta falta de transparencia impide que el Consejo y el público en general sepan cuáles son todas las consecuencias del programa.
Recomendaciones del Consejo asesor de contenido
A fin de respetar los compromisos de Meta con los derechos humanos y abordar los problemas anteriores, su programa de corrección de errores de mayor impacto en Facebook e Instagram debería ser considerablemente distinto. El Consejo ofrece 32 recomendaciones en este sentido, muchas de las cuales se resumen a continuación.
Dada la voluntad de Meta de mejorar la moderación de contenido para todos los usuarios, debería priorizar la libertad de expresión, un derecho humano de especial importancia, incluida la expresión de importancia pública. Se debería priorizar la inclusión de los usuarios con probabilidades de manifestar este tipo de expresión en las listas de entidades que acceden a revisión adicional por encima de los socios comerciales de Meta. Las publicaciones de estos usuarios deberían revisarse en el marco de un proceso independiente para que no tengan que competir por recursos limitados contra los socios comerciales de Meta. Si bien el número de seguidores puede ser indicativo del interés del público en la forma de expresión de un usuario, su condición de celebridad o su volumen de seguidores no debería ser el único criterio que se tiene en cuenta a la hora de otorgarle protección adicional. Si los usuarios incluidos en listas de verificación cruzada por su importancia comercial publican contenido infractor con frecuencia, no deberían recibir más protección.
Mayor transparencia en cuanto al sistema de verificación cruzada y su funcionamiento. Meta debería medir, auditar y publicar métricas clave en relación con su programa de verificación cruzada para que se conozca su efectividad. Sería necesario que la empresa definiera criterios claros públicamente para la inclusión en las listas de verificación cruzada y que los usuarios que cumplan los requisitos puedan solicitar que se los incluya en ellas. Algunas entidades de categorías concretas con acceso a la verificación cruzada (como agentes estatales, candidatos políticos y socios de negocio) deberían incluir una marca pública en su cuenta. Así las personas podrían exigir responsabilidades a los usuarios privilegiados en cuanto a su compromiso de seguir las reglas. Además, dado que aproximadamente un tercio del contenido sometido al sistema de verificación cruzada de Meta no pudo escalarse al Consejo entre mayo y junio de 2022, la empresa debe ofrecer la posibilidad de apelar a este organismo tanto el contenido sometido a la verificación cruzada como aquel que abarcan nuestros documentos rectores.
Reducir los daños provocados por el contenido que permanece en la plataforma para una fase adicional de revisión. El contenido que se considera que infringe las normas de forma grave durante la primera evaluación de Meta debería eliminarse u ocultarse mientras se somete a revisiones adicionales. No debería permitirse que contenido de estas características siga estando visible en la plataforma únicamente porque la persona que lo publicó es un socio comercial o una celebridad. Para garantizar que las decisiones se tomen lo más rápidamente posible, Meta debe dedicar los recursos necesarios para poder asumir la revisión de los volúmenes de contenido que considere que requieren revisión adicional.
Volver a Decisiones de casos y opiniones consultivas sobre políticas