Moderación de contenido en un año electoral histórico: Lecciones fundamentales para la industria

Resumen Ejecutivo

En este histórico año electoral, en el que participarán los ciudadanos de, al menos, 80 países de todo el mundo, nunca ha habido un momento más crítico para la democracia, los derechos humanos y las sociedades transparentes y justas. Solo en los tres primeros meses de 2024, los ciudadanos de Bangladesh, Pakistán, Indonesia y Taiwán acudieron a las urnas. Las elecciones que se celebrarán en lo que queda del año ya comenzaron en la India, y se espera lo mismo en muchos otros países y regiones, como Sudáfrica, México, la Unión Europea, el Reino Unido y Estados Unidos.

Las plataformas de redes sociales juegan un papel central en el discurso cívico, y su impacto en los procesos democráticos es objeto de un amplio debate. Si bien estas plataformas pueden permitir un proceso electoral más transparente ampliando el acceso a la información, también pueden usarse para incitar a la violencia relacionada con las elecciones o difundir información falsa para intentar manipular la opinión pública e influir en los resultados. Una aplicación inadecuada de las plataformas puede exacerbar estos abusos. Por eso es fundamental que se sometan a escrutinio las actuaciones de empresas tecnológicas privadas, que controlan el flujo de tanta información política.

El consejo asesor de contenido, un organismo independiente formado por 22 expertos en derechos humanos y libertad de expresión de todo el mundo y de todo el espectro político, ha hecho de la protección de las elecciones y del espacio cívico una de nuestras siete prioridades estratégicas. Creemos que es crucial que las plataformas de redes sociales aboguen por un espacio cívico abierto en el que todos, incluidos los miembros de grupos políticos opositores, los defensores de derechos humanos y las voces marginadas, puedan expresar sus opiniones, compartir información y participar libremente en los procesos democráticos. Por ello, en este año electoral, es de especial importancia identificar estrategias para que las empresas de redes sociales puedan proteger mejor la integridad de las elecciones, respetando, a su vez, la libertad de expresión. En el consejo asesor de contenido, nuestras recomendaciones ya han conseguido que Meta se comprometa a mejorar sus prácticas, pero aún queda mucho por hacer, tanto por parte de Meta como de otras plataformas y organismos reguladores.  

Este documento se basa en nuestro análisis de casos relevantes, que abordan fragmentos emblemáticos de contenido en las plataformas de Meta, para destacar algunas de las estrategias que las empresas de redes sociales pueden utilizar para proteger mejor el discurso político y contrarrestar los desafíos en Internet para que las elecciones se lleven a cabo de manera segura y confiable, respetando las normas internacionales sobre derechos humanos. A partir de las conclusiones colectivas extraídas de estos casos, también compartimos nuestras lecciones fundamentales para la industria, que se describen en su totalidad en el capítulo final de este documento.

Nueve lecciones fundamentales para la industria

  • Las políticas son parte de la historia, pero su aplicación es igual de esencial. Esto exige que empresas de redes sociales dediquen recursos suficientes a la moderación de contenido antes, durante y después de las elecciones.
  • Las empresas deben establecer normas básicas sobre plataformas globales para las elecciones en todo el mundo. Deben asegurarse de no descuidar las docenas de elecciones que se celebran en países o mercados considerados menos lucrativos, porque es ahí donde el impacto en los derechos humanos por no implementar estas normas puede ser más grave. Las plataformas que no cumplan las normas deben rendir cuentas.
  • El discurso político que incita a la violencia debe someterse a revisión. Debe darse prioridad a la revisión manual de los contenidos y a la imposición de sanciones severas a los infractores reincidentes.
  • Las plataformas deben protegerse contra los peligros de permitir que los gobiernos utilicen la desinformación, o razones poco claras o no especificadas, para silenciar la expresión crítica, sobre todo en contextos electorales y en relación con asuntos de interés público.
  • Las políticas que impiden la libertad de expresión deben especificar los daños al mundo real que intentan evitar, para garantizar que son necesarias y proporcionales al daño.
  • Las mentiras siempre han formado parte de las campañas electorales, pero los avances tecnológicos hacen que la difusión de información falsa sea más fácil, más barata y más difícil de detectar. Es necesario establecer normas claras para contenido generado por IA o "medios sintéticos" y otros tipos de contenidos manipulados, como las "manipulaciones audiovisuales baratas".
  • Los periodistas, los grupos de la sociedad civil y la oposición política deben estar mejor protegidos frente a los abusos en Internet, así como frente a la aplicación excesiva de la ley por parte de las empresas de redes sociales, incluida la ejercida a petición de gobiernos y otras partes.
  • La transparencia es más importante que nunca cuando se trata de preservar la integridad de las elecciones. Las empresas deben ser transparentes con respecto a las medidas que adoptan para evitar daños y a los errores que cometen.
  • Las campañas coordinadas destinadas a difundir desinformación o incitar a la violencia para socavar los procesos democráticos deben abordarse con carácter prioritario.

La importancia de la libertad de expresión en las elecciones

Guiados por las normas internacionales sobre derechos humanos

La comunidad internacional espera que las empresas, incluidas las plataformas de redes sociales, respeten los derechos humanos. La principal norma de derechos humanos que aplicamos en nuestras decisiones es el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (International Covenant on Civil and Political Rights, ICCPR), que protege ampliamente la libertad de expresión. En lo que respecta a las elecciones, el Comité de Derechos Humanos de la ONU ha afirmado que "la libre comunicación de información e ideas sobre temas públicos y políticos entre ciudadanos, candidatos y representantes electos es fundamental", (Observación General n.º 34, párr. 13).

Protección del discurso político

Muchos de nuestros casos ponen de relieve la gran protección que recibe el discurso político en virtud de la legislación sobre derechos humanos debido a su importancia para el discurso y el debate públicos. En el caso del video alterado del presidente Biden, donde revisamos un video que había sido alterado para que pareciera que el presidente de Estados Unidos tocaba indebidamente el pecho de su nieta, hicimos hincapié en que la mera falsedad no puede ser el único fundamento para restringir la libertad de expresión en virtud de la legislación sobre derechos humanos.

Como parte de nuestra revisión, detectamos que la Política de contenido multimedia manipulado de Meta, que rige la moderación de contenido generado por IA, estaba plagada de lagunas e incongruencias, por ejemplo, tratar de forma diferente el contenido que muestra a personas diciendo algo que no han dicho frente al contenido que muestra a personas haciendo algo que no han hecho. También trataba de forma incongruente los tipos de medios de audio frente a los medios audiovisuales.

Si bien dejamos el video alterado en este caso, a pesar de que mostraba al presidente Biden haciendo algo que no hizo, instamos a Meta a que revisara sus políticas de contenido multimedia manipulado para garantizar que los contenidos se eliminen solo cuando sea necesario para prevenir o mitigar daños específicos. Era necesario definir mejor estos daños. También recomendamos a la empresa que eliminara las distinciones e incongruencias antes señaladas. Por último, exhortamos a las empresas de redes sociales a que recurran al etiquetado de contenidos generados por IA como alternativa a su eliminación, excepto cuando el contenido infrinja otras políticas. Meta anunció que está tomando medidas para implementar nuestras recomendaciones, que proporcionarán a las personas el contexto que necesitan para tomar decisiones informadas sobre los contenidos.

En otros casos, también hemos decidido proteger el discurso político, incluso en los momentos en que podría considerarse de naturaleza agresiva, ya que lo consideramos una parte necesaria del debate público, siempre que no esté directamente relacionado con daños potenciales fuera de Internet. Por ejemplo, dimos instrucciones a Meta para que no retirara las noticias sobre el discurso de un político en el Parlamento de Pakistán, que contenía una referencia a una tradición antigua que, aunque violenta por naturaleza, no era literal ni podía provocar daños reales (Informe sobre el discurso del Parlamento pakistaní). En otra ocasión, la mayor parte del Consejo determinó que una controvertida expresión de opinión sobre inmigración no era lenguaje que incita al odio porque no contenía un ataque directo a un grupo basado en una característica protegida (Comentarios políticos sobre cambios demográficos). En ambos casos, decidimos que el contenido, aunque potencialmente ofensivo para algunos, constituía un discurso político protegido y debía mantenerse.

Nuestra instrucción para Meta fue clara: si va a eliminar contenidos relacionados con política, sobre todo en el contexto electoral, dicha eliminación debe considerarse necesaria para evitar o mitigar daños reales fuera de Internet. El derecho de los votantes a escuchar las opiniones de los políticos es fundamental.


Los desafíos de salvaguardar las elecciones en Internet

Los desafíos a la integridad electoral y la salvaguarda de las democracias deben tomarse muy en serio. Estos van desde la incitación a la violencia por parte de los líderes políticos hasta la desinformación que puede socavar la confianza en los procesos electorales. Las decisiones de diseño tomadas por las plataformas han empeorado, en general, los problemas de desinformación o han fomentado estas acciones, al tiempo que el auge de la IA generativa amenaza con exacerbar aún más esta situación. Por eso es fundamental adoptar un compromiso firme con la transparencia. Los usuarios y otras partes interesadas deben consultar las medidas que toman las empresas para contrarrestar estos problemas y si están aprendiendo de los errores del pasado.

Violencia e intimidación por parte de líderes políticos

Aunque la libertad de expresión está generalmente protegida por el derecho internacional de los derechos humanos, en determinadas circunstancias puede verse limitada. Las elecciones y las transiciones políticas suelen estar marcadas por una escalada de tensiones, y las redes sociales se utilizan, por lo general, en contextos en los que existe una mayor amenaza de violencia. En 2021, abordamos el tema de la violencia poselectoral analizando si Meta hizo bien en suspender de sus plataformas al expresidente de EE. UU. Donald Trump tras los disturbios del 6 de enero en el Capitolio de EE. UU. (Suspensión del expresidente Trump).

También hemos analizado a los líderes que incitan a la violencia en otros contextos electorales, por ejemplo, el caso del Discurso del general brasileño. En ambas decisiones, constatamos que Meta debió haber actuado con mayor rapidez contra el fomento o la legitimación de la violencia. Recomendamos que, durante un periodo de mayor riesgo de violencia, no se protegieran esos mensajes con el pretexto del derecho a protestar. Además, en el caso de Brasil, señalamos que la eliminación del contenido de los mensajes individuales es relativamente ineficaz cuando forman parte de una acción coordinada para perturbar los procesos democráticos. Las plataformas deben mejorar su preparación y respuesta ante estas crisis.

Los esfuerzos de integridad electoral (garantizar la imparcialidad del proceso de votación) y los protocolos de crisis, que establecen las mejores prácticas que deben seguir las plataformas durante acontecimientos extremos, son soluciones esenciales. En ambas decisiones, recomendamos a Meta que estableciera un marco de trabajo para responder a los sucesos de alto riesgo. En respuesta, Meta creó un Protocolo sobre política de crisis, una política que guía su respuesta a las crisis cuando sus procesos ordinarios no bastan para evitar daños. Esta herramienta puede aplicarse a las controversias electorales, como los litigios de procedimiento y los resultados impugnados, que suelen ser situaciones de crisis de rápida evolución. En la decisión de Brasil, también recomendamos a Meta establecer un marco de trabajo para evaluar e informar públicamente sus esfuerzos de integridad electoral en todo el mundo, entre los que se incluye la adopción de métricas de éxito, proporcionando datos relevantes para que la empresa mejore su sistema general de moderación de contenido, incluido el orgánico y el de pago. Meta se comprometió a hacerlo a finales de 2024. Dada la urgencia del asunto, seguimos de cerca este compromiso. La información extraída de estas métricas debería ayudar a Meta a decidir cómo desplegar sus recursos durante las elecciones y aprovechar los conocimientos locales para hacer frente a las campañas coordinadas dirigidas a perturbar los procesos democráticos, así como a establecer canales para recabar comentarios y determinar medidas eficaces cuando persista la violencia política tras la conclusión formal de unas elecciones.

Por supuesto, la incitación a la violencia no siempre se limita al periodo inmediatamente anterior o posterior a las elecciones. En el caso del primer ministro camboyano, exigimos a Meta que eliminara una publicación infractora del entonces primer ministro Hun Sen en la que arremetía contra la oposición política mediante la violencia meses antes de las elecciones previstas. A pesar del interés público en que los camboyanos escuchen a su primer ministro a través de las redes sociales antes de las elecciones, la propagación de la represión contra la oposición llevó al Consejo a pedir a Meta que suspendiera la página de Facebook y la cuenta de Instagram de Hun Sen durante seis meses. Dada la inestable situación en Camboya, concluimos que sus amenazas a la oposición política no podían justificarse como contenido "de interés periodístico" y tenían una alta probabilidad de causar daños físicos.

Por desgracia, la decisión final de Meta de no suspender la cuenta de Hun Sen sienta un precedente potencialmente peligroso para gobernantes de otros lugares que utilizan con frecuencia las plataformas de Meta para amenazar e intimidar a las voces críticas. Varios grupos internacionales de derechos humanos alzaron la voz instando a Meta a seguir las recomendaciones del Consejo.

Dada la importancia de lo que está en juego, seguimos de cerca la implementación por parte de Meta de las demás recomendaciones que planteamos en estos casos y seguiremos exigiendo a la empresa que cumpla sus compromisos.

En el caso de la Suspensión del expresidente Trump, habíamos instado a Meta a que explicara claramente su proceso de bloqueos y sanciones para restringir las cuentas con infracciones graves de las políticas de contenido, algo sobre lo que la empresa se ha vuelto mucho más transparente desde entonces. En el caso del primer ministro camboyano, recomendamos a Meta que, además, revisara su política de restricción de las cuentas de los líderes políticos no solo durante las crisis, sino también en situaciones en las que el Estado reprime preventivamente la expresión política con violencia o amenazas de violencia. También señalamos que Meta debía actualizar sus sistemas de priorización de revisiones para que el contenido potencialmente infractor de los jefes de Estado se revise de forma congruente y rápida por expertos, y se elimine cuando suponga un riesgo de daño probablemente inminente.

Recientemente analizamos otros confines de los límites de la expresión política, esta vez, en los casos de la Campaña electoral 2023 en Grecia. Nuestra decisión mayoritaria apoyó la eliminación de dos publicaciones por infringir la Política de personas y organizaciones peligrosas de Meta. Para salvaguardar la integridad de las elecciones, reconocimos que era apropiado que Meta limitara la libertad de los candidatos y partidos políticos que hacen campaña en sus plataformas cuando hacen referencia específica a apoyos y símbolos de personas y grupos proscritos que se sabe que están relacionados con la violencia. Sin embargo, también observamos que las normas de Meta podrían ser más claras, dado que la empresa no hace pública la lista de entidades que designa como peligrosas. Tras esta decisión, el Tribunal Supremo de Grecia ha prohibido a este partido político (los espartanos) participar en las próximas elecciones de la UE, ya que había "ofrecido a su partido como tapadera" del antiguo portavoz del partido prohibido Amanecer Dorado.

Por último, también reconocemos que hay casos en los que funcionarios del gobierno y políticos, entre los que se incluyen funcionarios electorales, son acosados o agredidos. Para abordar en parte esta situación, a través de nuestra opinión consultiva sobre políticas de Uso compartido de información residencial privada se aconsejó a Meta que dicha información no se permitiera cuando se organizaran protestas en las proximidades de la residencia privada de un funcionario del Gobierno de alto rango, y cuando no se dispusiera de medidas de seguridad para proteger a las personas que se encontraran en el interior.

Riesgos de una aplicación excesiva

El periodo previo a las elecciones y durante estas, así como las tomas de posesión y los traspasos de poder posteriores, suelen implicar un aumento de las comunicaciones y el intercambio de información entre los usuarios. Estos son los momentos que hay que considerar: cuando Meta y otras empresas tienen mayor responsabilidad para aplicar correctamente sus políticas de contenido. Varios de nuestros casos han obligado a Meta a mejorar su historial en materia de errores del sistema de cumplimiento de normas.

Un problema concreto, particularmente frecuente durante las elecciones, es que los gobiernos presionan a las plataformas para que eliminen contenidos lícitos con el argumento (a veces injustificado) de que infringen las políticas de la plataforma. Como requisito mínimo, hemos insistido en que Meta informe a los usuarios cuando sus contenidos se eliminen a petición de un Gobierno, algo que la empresa ya hace. En el caso de la Música drill británica, en el que descubrimos que Meta había eliminado música lícita que en realidad no infringía las políticas de las plataformas a petición de la policía, recomendamos que la empresa adoptara un enfoque congruente a nivel mundial para recibir solicitudes de eliminación de contenidos por parte del Estado, que hiciera públicos los datos sobre estas solicitudes y que evaluara la existencia de sesgos sistémicos en las decisiones de moderación de contenido derivadas de solicitudes gubernamentales. Esta recomendación de aumentar la transparencia en torno a las solicitudes gubernamentales de eliminación y hacerlas públicas también se destacó en el caso del Aislamiento de Öcalan y en nuestra opinión consultiva sobre políticas de Eliminación de información errónea sobre el COVID-19.

Otro problema recurrente que hemos observado en las apelaciones de los usuarios tiene que ver con las dificultades a las que se enfrenta la empresa para distinguir entre la crítica política figurada y las amenazas creíbles prohibidas por la Política de violencia e incitación. El caso de los Lemas de protesta en Irán ilustró nuestra seria preocupación por el hecho de que este tipo de aplicación excesiva de la ley pueda obstaculizar gravemente los movimientos de protesta destinados a promover los derechos humanos. En este caso, decidimos que debía permitirse un lema concreto ("marg bar Khamenei", que literalmente se traduce como "muerte a Khamenei", el líder supremo de Irán) que se estaba utilizando en las protestas en curso en el país. Antes de que seleccionáramos este caso, se habían eliminado importantes cantidades de contenido con este lema por supuesta incitación a la violencia. Una aplicación excesivamente literal de la política impedía a los manifestantes expresar su descontento con el régimen en las plataformas de Meta. En nuestra decisión, destacamos que las declaraciones políticas retóricas, que no son una amenaza creíble, no infringen la política y no requieren que se aplique una excepción a la política de interés periodístico. También recomendamos cambios en la Norma comunitaria sobre violencia e incitación para proteger el discurso político claramente retórico durante las protestas, todo ello con el objetivo de permitir a la gente expresar libremente sus críticas a los gobiernos.

Una de las políticas que suele dar lugar a una aplicación excesiva es la Política de personas y organizaciones peligrosas de Meta, que prohíbe la glorificación, el apoyo y la representación de personas, grupos y acontecimientos que la empresa designe como peligrosos. Si bien la política persigue un objetivo legítimo, en la práctica ha dado lugar, con demasiada frecuencia, a la eliminación arbitraria de contenidos publicados por usuarios que informaban sobre situaciones relacionadas con esos grupos, que defendían los derechos humanos o que establecían analogías inofensivas.

En una reciente opinión consultiva sobre políticas, en la que profundizamos en asuntos políticos difíciles que están bajo consideración de Meta, aconsejamos a la empresa que pusiera fin a su creencia de que la palabra "shaheed" (que se traduce vagamente como "mártir" en un sentido) siempre denota elogio cuando se refiere a personas designadas (Denominar "Shaheed" a las personas designadas como peligrosas). Esto debería garantizar una aplicación más precisa de lo que Meta ha descrito como su "palabra más moderada", asegurando que se respete mejor la expresión política. También exigimos aclaraciones adicionales y, lo que es más importante, pedimos a Meta que explicara claramente a los usuarios cómo se utiliza el sistema automatizado de Meta para generar predicciones sobre posibles infracciones de esta política por parte de los contenidos.

Todas las recomendaciones anteriores han hecho hincapié en las responsabilidades en materia de derechos humanos de las plataformas de redes sociales para hacer frente a los efectos adversos en las personas y la sociedad, en lugar de obedecer a intereses políticos o empresariales.

Desinformación

La desinformación puede adoptar diversas formas, que suponen distintos daños en relación con las elecciones y la salvaguarda del espacio democrático, fomentando la polarización y socavando la confianza en la integridad de un proceso democrático. Los contenidos engañosos también pueden crear desconfianza en las instituciones gubernamentales, la sociedad civil y los medios de comunicación. Por otra parte, la interrogante de qué información es verdadera o falsa (o engañosa) suele ser una parte legítima del desacuerdo democrático.  Los gobiernos y los actores poderosos utilizan, en ocasiones, la presencia de información errónea como pretexto para eliminar verdades incómodas. Por ello, el intento por combatir la información errónea perjudicial es una tarea compleja, cuyas implicaciones cobran especial relevancia durante las elecciones.

Amplificación y coordinación de la desinformación

Diversos actores, incluidos los gobiernos, utilizan las redes sociales para socavar los procesos democráticos, y las tácticas para difundir la desinformación evolucionan. Aunque Meta ha identificado y eliminado cuentas no auténticas que intentaban interferir en las elecciones y la empresa colabora con verificadores de información para clasificar algunos tipos de información falsa o engañosa, las campañas coordinadas de desinformación siguen proliferando.

A pesar de los esfuerzos por combatir las conductas no auténticas, las decisiones políticas y de diseño de Meta, en particular sus algoritmos de noticias y recomendaciones, han permitido que las narrativas de desinformación promovidas por redes de personas influyentes ganen adeptos y se extiendan, a veces desembocando en violencia fuera de Internet. Esto nos llevó, en parte, a recomendar a Meta que realizara una revisión exhaustiva de cómo estas elecciones contribuyeron a la narrativa del fraude electoral y a las tensiones que culminaron en los disturbios del Capitolio de enero de 2021 en los EE. UU. (Suspensión del expresidente Trump). También aconsejamos a Meta que analizara medidas para reducir contenidos nocivos orgánicos y amplificados por algoritmos (caso sobre la (Afirmación sobre la existencia de una cura para el COVID y la opinión consultiva sobre políticas de Eliminación de información errónea sobre el COVID-19). En la misma opinión consultiva sobre políticas, instamos a Meta a realizar una investigación que analizara las cuentas que amplifican o coordinan campañas de información errónea de salud. Se deben aplicar consideraciones similares a la desinformación nociva relacionada con las elecciones, y hemos planteado la importancia de que los usuarios dispongan de medios para apelar la decisión de Meta cuando la empresa degrade su contenido basándose en la calificación de "falso", "engañoso" o "alterado" otorgada por un verificador de información (video alterado del Presidente Biden).

Contenido multimedia manipulado

Los usuarios pueden crear contenido multimedia manipulado y malicioso que socava los procesos democráticos y agrava los conflictos políticos. Si bien la inteligencia artificial (IA) generativa amenaza con empeorar esta situación, los métodos más burdos, como las "manipulaciones audiovisuales baratas", son más comunes y pueden ser igual de perjudiciales. Como se ha señalado anteriormente, en el caso del video alterado del Presidente Biden, instamos a Meta a modificar su Política de contenido multimedia manipulado para abordar varias lagunas en materia de aplicación. Desde entonces, Meta anunció que implementará íntegramente las recomendaciones del Consejo.

Publicidad política y marketing de personas influyentes

La publicidad de pago en las plataformas de redes sociales suele ocultar el verdadero origen de este contenido, que puede utilizarse como parte de campañas de desinformación. Una de las estrategias que Meta utiliza para abordar actualmente las cuestiones de atribución es exigir que los anuncios muestren la etiqueta "Pagado por". Como mínimo, los anuncios políticos deben cumplir el mismo conjunto de normas comunitarias que se aplica a todos los contenidos de las plataformas de Meta, así como su política de anuncios. No obstante, las partes interesadas han expresado su preocupación por la aplicación inadecuada de las normas comunitarias de Meta en lo que respecta a los anuncios políticos. Ya hemos recibido reportes de anuncios políticos en los que se utilizan afirmaciones claramente falsas para atacar la legitimidad de las elecciones de Brasil en plataformas de Meta (Discurso del general brasileño). Según un grupo de la sociedad civil, se produjeron hechos similares en las elecciones de Myanmar y Kenia. Nuestra recomendación, que consiste en crear un marco de trabajo con métricas de éxito para evaluar la eficacia de los esfuerzos de integridad electoral de la empresa, fue en parte una respuesta a este fenómeno. Esto ayudaría a Meta a encontrar un equilibrio entre mantener las críticas legítimas a las elecciones como parte de un debate público sano y eliminar los contenidos que constituyen verdaderos intentos de socavar un proceso de votación.

Los mensajes políticos, que incluyen los compartidos por microinfluencers e nanoinfluencers, también pueden sembrar narrativas creadas para influir en la opinión pública sobre los candidatos políticos o las encuestas. Esta evolución cuestiona aún más nuestro concepto de lo que es un contenido auténtico y lo que no lo es. La definición de Meta de anuncios acerca de temas sociales, elecciones o política ofrece algunos detalles, pero el término "temas sociales" es en sí mismo amplio. Abarca "temas delicados que son objeto de intensos debates, que pueden influir en el resultado de unas elecciones o dar lugar a legislación vigente o propuesta, o estar relacionados con ella".

Como respuesta, en parte, a nuestra recomendación (video alterado del Presidente Biden) de que Meta informara mejor a los usuarios sobre el origen de contenido multimedia manipulado, la empresa también exige ahora a los anunciantes que revelen su uso de IA para crear o alterar un anuncio sobre temas políticos o sociales que haya sido "creado o alterado de manera digital para representar a una persona real diciendo o haciendo algo que no dijo ni hizo".


Conclusión: Lecciones fundamentales para la industria

Desde la alta protección que merece el discurso político hasta las medidas que pueden adoptar las plataformas para contrarrestar mejor la difusión de información falsa en Internet, seguimos comprometidos con la protección de las elecciones a través de nuestras decisiones sobre casos emblemáticos y la emisión de recomendaciones que persiguen las mejores prácticas en materia de moderación de contenido. A partir de los conocimientos colectivos obtenidos de este trabajo en curso relacionado con las elecciones, y otros casos relacionados, hemos identificado las siguientes lecciones fundamentales para aquellos que trabajan para preservar la integridad electoral en las plataformas de redes sociales. Se trata de pautas dirigidas principalmente a la industria, pero esperamos que influyan en otras partes interesadas a la hora de hacer rendir cuentas a las empresas.

  • Las políticas son una parte de la historia, pero la aplicación de estas es igual de importante en situaciones que se intensifican rápidamente. Esto exige que las empresas de redes sociales dediquen recursos suficientes a moderar los contenidos antes, durante y después de las elecciones, y que lo hagan a escala mundial, independientemente de si tienen intereses políticos o económicos en el país afectado. Unas elecciones cuestionadas pueden desembocar con demasiada facilidad en crisis y conflictos. Es imperativo que las empresas de redes sociales tengan suficiente experiencia en el idioma y el contexto locales para orientar allí sus políticas y prácticas electorales globales.
  • Las empresas deben establecer normas básicas para las plataformas globales en todas partes y hacer que rindan cuentas por su incumplimiento. Es importante que las empresas no descuiden las docenas de elecciones que se celebran en países o mercados considerados menos lucrativos, porque es ahí donde el impacto en los derechos humanos por no implementar estas normas puede ser más grave. Si bien los recursos son finitos, los daños de la desinformación que no se somete a revisión o de la incitación a la violencia son igual de graves en regiones que se suelen desatender, ya que la inestabilidad en un lugar favorece la inestabilidad en otro y envalentona a los actores de mala fe en otros lugares.
  • El discurso político que incita a la violencia debe someterse a revisión. Debe darse prioridad a la revisión manual de los contenidos y a la imposición de sanciones severas a los infractores reincidentes. Esto adquiere especial importancia cuando se trata de contenidos de jefes de Estado y altos cargos del Gobierno que podrían incitar a la violencia. Si bien la gente tiene derecho a ver lo que es "de interés periodístico", los contenidos perjudiciales que superan el interés público, y que socavan fundamentalmente el proceso electoral, se deben someter a una revisión manual y se deben eliminar cuando sea necesario. Si los políticos infringen repetidamente las normas, puede ser necesario suspenderlos de las plataformas en Internet. Esto se vuelve más crítico en época de elecciones, cuando la capacidad de amplificar los daños, las amenazas y la intimidación es mayor.
  • Las plataformas deben protegerse contra los peligros de permitir que los gobiernos utilicen la desinformación, o razones poco claras o no especificadas, para silenciar la expresión crítica. Esto adquiere especial relevancia en contextos electorales y en relación con asuntos de interés público.
  • Las políticas que impiden la libertad de expresión deben especificar los daños al mundo real que intentan evitar, para garantizar que son necesarias y proporcionales al daño. A la hora de abordar la información errónea y la desinformación, existen claras tensiones entre permitir la libertad de expresión y el acceso a la información (esenciales para los procesos democráticos) y proteger a las personas de los daños del mundo real, sobre todo la violencia. Las políticas deben reflejar los riesgos para la seguridad física, así como los riesgos de intimidación, exclusión y censura. La expresión de opiniones que no supongan un daño no debe suprimirse con el pretexto de información errónea.
  • Las mentiras siempre han formado parte de las campañas electorales, pero los avances tecnológicos hacen que la difusión de información falsa sea más fácil, más barata y más difícil de detectar. Es necesario establecer normas claras para los contenidos generados por IA o "medios sintéticos" y otros tipos de contenidos manipulados, como las "manipulaciones audiovisuales baratas". Si algo resulta dañino, debe tratarse como tal. El ritmo vertiginoso de los cambios tecnológicos hace que las políticas puedan quedar obsoletas, lo que crea lagunas y permite que proliferen los abusos. Es fundamental que, a la hora de diseñar políticas y procesos, las empresas tengan claro el objetivo final o el daño último que pretenden evitar, y que se consulte a las partes interesadas a nivel mundial como parte de este proceso.
  • Los periodistas, los grupos de la sociedad civil y la oposición política deben estar mejor protegidos frente a los abusos en Internet, así como frente a la aplicación excesiva de la ley por parte de las empresas de redes sociales. Garantizar que los opositores políticos y los actores cívicos puedan expresarse es fundamental para un proceso electoral justo y un área que las empresas de redes sociales deben priorizar, sobre todo en países donde la libertad de expresión se reprime constantemente. Se debe proteger a los manifestantes y a otras personas que critican pacíficamente a sus gobiernos. Las solicitudes gubernamentales de eliminación de contenidos deben examinarse teniendo en cuenta los derechos humanos. Lograr el equilibrio adecuado durante una crisis no es fácil, pero contar con políticas congruentes para hacer frente a estas situaciones, al tiempo que se ofrece apoyo y capacitación adicionales a los moderadores, son pasos iniciales importantes.
  • La transparencia es más importante que nunca cuando se trata de preservar la integridad de las elecciones. La gente necesita saber con certeza de dónde proceden la desinformación y otros contenidos dañinos, qué forma adoptan y qué impacto tienen. Las empresas deben ser transparentes con respecto a las medidas que toman para evitar daños, a los errores que cometen y a establecer normas claras sobre cómo pueden mejorar. Esto incluye comprometerse a ofrecer mayor transparencia sobre las solicitudes de eliminación respaldadas por el Estado, que tienen el poder de silenciar indebidamente a los opositores.
  • Las campañas coordinadas destinadas a difundir desinformación o incitar a la violencia para socavar los procesos democráticos deben abordarse con carácter prioritario. Este tipo de campañas socavan la confianza en los procesos democráticos porque dificultan la búsqueda de información veraz, permiten hostigar a quienes expresan su desacuerdo político y difunden información falsa como si se tratara de datos probados. Las empresas de redes sociales deben mejorar su diseño y sus opciones de políticas para garantizar que no se amplifiquen las narrativas de desinformación.

Reconocimientos

Este documento fue elaborado por los miembros del Consejo asesor de contenido Michael McConnell, Pamela San Martin y Afia Asantewaa Asare-Kyei, y revisado por todos los miembros del consejo. Este trabajo colaborativo contó con las contribuciones de: Jenny Domino, responsable superior de Casos y Políticas, y Carly Miller, responsable de Datos y Aplicación, con la edición y aprobación de: Simona Sikimic, directora de Comunicación y Participación, Neena Dhillon, jefa de Redacción y Contenido, y Andrew Smith, jefe de Casos y Políticas. 

Regreso al liderazgo intelectual