El Consejo asesor de contenido anunció dos nuevos casos sobre imágenes de IA explícitas de figuras públicas femeninas

El Consejo anunció hoy dos nuevos casos para su consideración. Como parte de este proceso, invitamos a las personas y organizaciones a enviar comentarios.

Selección de casos

Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que podrían afectar a muchos usuarios de todo el mundo, que sean de suma relevancia para el discurso público o que planteen cuestiones importantes sobre las políticas de Meta.

Estos son los casos que anunciamos hoy:

Imágenes de IA explícitas de figuras públicas femeninas

2024-007-IG-UA, 2024-008-FB-UA

Apelación de un usuario para eliminar contenido de Instagram y apelación de un usuario para restaurar contenido en Facebook

Si quieres enviar comentarios del público, que pueden ser anónimos, haz clic aquí.

Estos casos se relacionan con dos decisiones de contenido que tomó Meta, una en Instagram y otra en Facebook, que el Consejo asesor de contenido pretende abordar de forma conjunta. Para cada caso, el Consejo decidirá si el contenido debería permitirse en Instagram o Facebook.

El primer caso se relaciona con una imagen generada con IA de una mujer desnuda que se publicó en Instagram. La imagen se creó con inteligencia artificial (IA) para representar a una figura pública de la India. La cuenta que publicó este contenido solo comparte imágenes generadas con IA de mujeres indias. La mayoría de los usuarios que reaccionaron tienen cuentas en la India, donde las noticias falsas son un problema cada vez más grande.

En este caso, un usuario reportó el contenido a Meta por incluir pornografía. El reporte se cerró automáticamente porque no se revisó en un plazo de 48 horas. El mismo usuario apeló la decisión de Meta de conservar el contenido, pero también se cerró automáticamente, por lo que se mantuvo publicado. El usuario entonces apeló al Consejo. Luego de que el Consejo seleccionara este caso, Meta determinó que había cometido un error en su decisión de conservar el contenido y eliminó la publicación por infringir la norma comunitaria sobre bullying y acoso.

El segundo caso está relacionado con una imagen publicada en un grupo de Facebook para creaciones con IA. Muestra una imagen generada con IA de una mujer desnuda con un hombre tocando su pecho. La imagen se creó con IA para representar a una figura pública norteamericana, cuyo nombre también aparece en el texto. La mayoría de los usuarios que reaccionaron tienen cuentas en los Estados Unidos.

En este caso, otro usuario ya había publicado la imagen, lo que causó que se escalara a expertos en el tema o en la política de Meta, quienes decidieron eliminar el contenido por infringir la política de bullying y acoso, en especial, por incluir "dibujos o imágenes manipuladas mediante un programa de retoque fotográfico que estén sexualizados y sean despectivos". La imagen se agregó a un Media Matching Service Bank, que forma parte del sistema de aplicación de políticas automatizado de Meta que encuentra y elimina automáticamente imágenes que ya habían sido identificadas por revisores como infractoras de las reglas de Meta. Por lo tanto, en este caso, la imagen ya se consideraba una infracción de las Normas comunitarias de Facebook y se eliminó. El usuario que publicó el contenido apeló, pero el reporte se cerró automáticamente. El usuario entonces apeló al Consejo.

El Consejo seleccionó estos casos para evaluar si las políticas de Meta y sus prácticas de aplicación de políticas son efectivas a la hora de abordar imágenes generadas con IA explícitas. Este caso se alinea con la prioridad estratégica de género del Consejo.

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • La naturaleza y la gravedad de los daños que causa la pornografía falsa, incluso cómo esos daños afectan a las mujeres, en especial a aquellas que son figuras públicas.
  • Información contextual sobre el uso y la prevalencia de pornografía falsa en todo el mundo, incluidos en los Estados Unidos y en la India.
  • Estrategias para que Meta pueda abordar pornografía falsa en sus plataformas, incluidas las políticas y los procesos de aplicación de políticas que pueden ser más efectivos.
  • La aplicación por parte de Meta de la regla de "dibujos o imágenes manipuladas mediante un programa de retoque fotográfico que estén sexualizados y sean despectivos", incluida en la política de bullying y acoso, incluso el uso de Media Matching Service Banks.
  • Los desafíos que implica confiar en sistemas automatizados que cierran automáticamente apelaciones en 48 horas si no se realiza ninguna revisión.

Como parte de sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para estos casos.

Comentarios del público

Si tú o tu organización consideran que pueden contribuir con perspectivas valiosas que ayuden a tomar una decisión sobre el caso anunciado hoy, puedes enviar tus aportes a través del enlace que aparece arriba. Ten en cuenta que los comentarios del público pueden enviarse de forma anónima. El plazo para enviar comentarios del público es de 14 días y finaliza el martes 30 de abril a las 23:59 de tu zona horaria local.

Para respetar sus derechos y mitigar los riesgos de aumentar el acoso contra las mujeres que se muestran en estas publicaciones, el Consejo solicitó que los comentarios eviten mencionar nombres o compartir información privada sobre terceros, o especular sobre las identidades de las personas que se muestran en el contenido de estos casos.

Próximos pasos

En las próximas semanas, los miembros del Consejo deliberarán sobre estos casos. Cuando hayan tomado sus decisiones finales, las publicaremos en el sitio web del Consejo asesor de contenido.

Para recibir notificaciones cuando el Consejo anuncie nuevos casos o publique decisiones, regístrate aquí.

Volver a Noticias