Decisión de casos múltiples
Declaraciones dirigidas a personas indígenas de Australia
Un usuario apeló las decisiones de Meta de conservar dos publicaciones de Facebook, ambas compartidas por otro usuario, que responden artículos de noticias con comentarios dirigidos a la población indígena de Australia.
2 casos incluidos en el paquete
FB-CRZUPEP1
Caso sobre lenguaje que incita al odio en Facebook
FB-XJP78ARB
Caso sobre lenguaje que incita al odio en Facebook
Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Un usuario apeló las decisiones de Meta de conservar dos publicaciones de Facebook, ambas compartidas por un solo usuario, que responden artículos de noticias con comentarios dirigidos a la población indígena de Australia. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y eliminó ambas publicaciones.
Información de los casos
Entre diciembre de 2023 y enero de 2024, un usuario australiano compartió dos publicaciones de Facebook sobre personas indígenas de Australia. La primera publicación incluía un enlace a un artículo en el que se detallaba la iniciativa de un consejo de tierras indígenas de comprar terrenos en un parque situado en uno de los suburbios de Sídney. El texto de la publicación pedía a las personas indígenas que "bugger off to the desert where they actually belong" (se largaran al desierto a donde realmente pertenecen). En la segunda publicación, se compartía un artículo sobre una persecución en automóvil en el noreste de Australia. En el texto de la publicación, se pedía que las "Aboriginal ratbags" (bolsas de ratas aborígenes) cumplieran una condena en prisión y recibieran "100 strokes of the cane" (100 azotes).
La política de lenguaje que incita al odio de Meta prohíbe las declaraciones que respaldan o promueven la segregación o exclusión de personas sobre la base de su raza y etnia. Meta prohíbe de forma específica contenido que explícitamente pida que "se expulsen ciertos grupos" y contenido que respalde "la negación de espacios (físicos y online)". La política también prohíbe los "insultos dirigidos" y las "generalizaciones que denotan inferioridad", incluidas las "características mentales" dirigidas a una persona o un grupo de personas en función de sus características protegidas.
Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que ambas publicaciones infringían su política de lenguaje que incita al odio y que sus decisiones originales de conservarlas habían sido incorrectas. La empresa eliminó el contenido de Facebook.
Meta explicó al Consejo que la publicación pedía la exclusión de personas indígenas australianas del parque, y que la palabra "bugger off" (largarse) en referencia a ellas es un ejemplo de un insulto dirigido a miembros de un grupo protegido. Además, Meta reconoció que el término "ratbag" (bolsa de ratas) es despectivo, con significados que incluyen "stupid person" (persona estúpida) en inglés australiano; por lo tanto, infringe la política de lenguaje que incita al odio de Meta, que prohíbe declaraciones referidas a miembros de un grupo con características protegidas como mentalmente inferiores.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar las decisiones de Meta tras las apelaciones de los usuarios que reportaron el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Significancia de los casos
El Consejo enfatizó repetidas veces la especial importancia de abordar el lenguaje que incita al odio dirigido a grupos que históricamente sufrieron y siguen sufriendo discriminación (decisiones de los casos Insultos de Sudáfrica y Publicación en polaco contra las personas trans). El Consejo también manifestó serias preocupaciones en torno a las prácticas de aplicación de políticas por parte de Meta, ya que pueden impactar de forma desproporcionada en las personas de las Primeras Naciones. En la decisión del caso Cinturón de abalorios, el Consejo observó que, si bien los errores son inevitables, "los tipos de errores y las personas o comunidades que cargan el peso de esos errores señalan decisiones relativas al diseño que deben evaluarse y examinarse de forma constante". En ese caso, el Consejo enfatizó la importancia de que Meta supervise la precisión de su proceso de aplicación de la política de lenguaje que incita al odio, no solo de forma general sino con una sensibilidad particular hacia errores de aplicación para "subcategorías de contenido en las que tomar decisiones incorrectas perjudica en gran medida los derechos humanos". El Consejo explicó que, en consecuencia, "le corresponde a Meta demostrar que ejerce debida diligencia respecto de los derechos humanos para garantizar que sus sistemas funcionen de forma justa y no exacerben opresiones históricas y presentes".
En pedidos de exclusión, el Consejo recomendó que Meta "debe reformular el valor de 'seguridad' para reflejar que el lenguaje que incita al odio online puede suponer un riesgo para la seguridad física de las personas y el derecho a la vida, además de los riesgos de intimidación, exclusión y silenciamiento" (caso Presuntos delitos en Raya Kobo, recomendación n.º 1). La implementación de esta recomendación se demostró mediante información publicada.
Decisión
El Consejo anuló las decisiones originales de Meta de conservar el contenido. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido los casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas