Gobierno y plataformas revisarán trimestralmente la retirada de discursos de odio en redes

Meta, YouTube y TikTok acuerdan mejorar la rapidez de eliminación de mensajes racistas

El Gobierno de España y las principales plataformas digitales han decidido reforzar la cooperación para combatir los discursos de odio en redes sociales y se reunirán trimestralmente para evaluar avances.

Tras publicarse el informe anual de 2024, que revela que solo el 35 por ciento de los 2870 contenidos notificados fueron retirados, el Observatorio Español del Racismo y la Xenofobia (OBERAXE[1]) ha constatado en 2025 un aumento exponencial de mensajes reportables gracias al sistema FARO.

Un problema estructural en las redes sociales

El discurso de odio en internet ha dejado de ser un fenómeno aislado y se ha convertido en una manifestación persistente y estructural, que utiliza bulos, estereotipos y desinformación para estigmatizar a personas migrantes, minorías religiosas y étnicas.

El informe de OBERAXE de 2024 evidencia que la hostilidad se dirige principalmente a:

  • Personas del norte de África (35 por ciento de los casos).
  • Personas africanas y afrodescendientes (24 por ciento).
  • Inmigrantes en general (21 por ciento).
  • Personas musulmanas (21 por ciento).

También se detectaron ataques a la comunidad judía (3 por ciento), a menores no acompañados (5 por ciento) y a la población gitana (3 por ciento).

Datos de retirada por plataformas

El informe detalla que la reacción de las plataformas sigue siendo insuficiente. Solo el 4 por ciento de los contenidos se eliminó en las primeras veinticuatro horas, un periodo crítico para evitar la viralización.

Tabla 1. Retirada de contenidos notificados en 2024

PlataformaTotal retiradoEn 24 horasEn 48 horasEn 1 semanaTrusted FlaggerNo retirado
Facebook29,00 %1,00 %1,00 %5,00 %23,00 %71,00 %
X (Twitter)14,00%4,00%1,00%3,00%7,00%86,00%
Instagram49,00%2,00%2,00%7,00%37,00%51,00%
TikTok69,00%15,00%3,00%5,00%47,00%31,00%
YouTube27,00%0,00%0,00%1,00%25,00%73,00%
Total35,00%4,00%1,00%4,00%26,00%65,00%

Fuente: Informe OBERAXE 2024

Nuevos sistemas de detección: el papel de FARO

En 2025 se implementó FARO, un sistema basado en inteligencia artificial cedido por LaLiga. Entre enero y agosto, este mecanismo detectó más de seiscientos mil contenidos reportables, frente a los 2870 notificados manualmente en todo 2024.

Este salto cuantitativo permite a las autoridades identificar de forma más rápida y masiva publicaciones que podrían ser constitutivas de delito o vulnerar las normas de las plataformas.

Declaraciones institucionales

La ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, destacó que «frenar los bulos, la desinformación y el discurso de odio en las redes debe ser una tarea colectiva».

Asimismo, anunció la organización de una Cumbre contra el odio en redes sociales, con el objetivo de comparar la situación española con otros países europeos.

Tipología del discurso de odio

Deshumanización y violencia

El 37 por ciento de los contenidos notificados en 2024 incluían mensajes de deshumanización; un 29 por ciento incitaba directamente a la violencia; un 15 por ciento pedía la expulsión de colectivos; y un 5 por ciento glorificaba a quienes cometían agresiones.

Lenguaje explícito y agresivo

En 2024, el 53 por ciento de los mensajes contenían un lenguaje agresivo. En 2025, esa cifra ascendió al 70 por ciento en el primer trimestre, lo que muestra la consolidación de narrativas hostiles.

Factores desencadenantes

El discurso de odio suele aumentar en relación con determinados episodios prototípicos:

  • La vinculación entre inmigración e inseguridad ciudadana (34 por ciento del total).
  • Las políticas públicas de acogida y traslado de migrantes (9 por ciento).
  • La llegada de embarcaciones a las costas (7 por ciento).
  • El ámbito deportivo, con casos como los insultos racistas contra Vinícius Júnior.

Un dato relevante: el 40 por ciento de los contenidos que relacionan inmigración e inseguridad son bulos o hechos descontextualizados.

Compromiso de seguimiento trimestral

Representantes de Meta, YouTube y TikTok han acordado con el Gobierno mantener reuniones trimestrales para revisar los datos de retirada y mejorar los mecanismos de moderación. Aunque la plataforma X no asistió a la primera reunión, se espera su incorporación a estos trabajos.

Los grupos de trabajo permanentes abordarán también la aplicación de la Ley de Servicios Digitales de la UE (DSA), que obliga a las plataformas a garantizar un espacio digital seguro.

Análisis de situación

El discurso de odio en redes sociales constituye un desafío estructural que afecta a la cohesión social, los derechos fundamentales y la seguridad de los colectivos vulnerables.

Los datos de 2024 y 2025 revelan que, aunque existen avances tecnológicos como FARO y mecanismos de notificación más eficaces, la respuesta de las plataformas sigue siendo insuficiente. La cooperación con el Gobierno y el seguimiento periódico se presentan como pasos necesarios para frenar la escalada de mensajes racistas, xenófobos, islamófobos, antisemitas y antigitanos.

  1. Un «Trusted Flagger» (Alertador de Confianza) es una organización experta, designada y reconocida por los gobiernos bajo la Ley de Servicios Digitales (DSA) de la UE, que detecta y notifica contenidos ilegales en línea, como discursos de odio y contenido terrorista, a las plataformas digitales. Su función es mejorar la eficiencia y la velocidad de la eliminación de contenido perjudicial, ya que las plataformas deben dar prioridad a los avisos de estos alertadores. 

DEJA UNA RESPUESTA

Escribe un comentario
Escribe aquí tu nombre