El Observatorio Español del Racismo y la Xenofobia (OBERAXE) ha presentado un análisis sobre la notificación y reacción de las principales redes sociales frente a contenidos de odio racista, xenófobo, antisemita, antigitano e islamófobo.
El informe recoge datos de 2024 y del primer semestre de 2025, ofreciendo una visión clara sobre la eficacia de Facebook, Instagram, X, TikTok y YouTube en la retirada de contenidos reportados.
Cerca de 3.000 notificaciones en 2024 y medio millón de contenidos detectados en 2025
Durante 2024, OBERAXE notificó 2.870 contenidos a las cinco plataformas, que podían ser constitutivos de delito, infracción administrativa o violación de sus normas internas. En el primer semestre de 2025, el monitor FARO detectó 531.727 contenidos de odio reportables, de los que se realizaron 1.809 notificaciones. Estos datos reflejan la persistencia y magnitud del discurso de odio online.
Solo un 35 % de los contenidos fueron retirados en 2024 y la tasa bajó aún más en 2025
En 2024, las plataformas retiraron apenas 1.010 contenidos, lo que equivale a un 35 % de los notificados. En los primeros seis meses de 2025, la tasa de retirada bajó al 33 %. Solo el 2 % de los contenidos notificados en 2025 se eliminaron en las primeras 24 horas, una demora que deja expuesto material que deshumaniza y estigmatiza a grupos vulnerables, favoreciendo su circulación y la normalización del discurso de odio.
TikTok lidera la retirada, X y YouTube muestran los peores resultados
El informe destaca las diferencias entre plataformas: TikTok retiró el 69 % de los contenidos en 2024 y casi el 90 % en 2025, consolidándose como la red más eficaz. Le siguen Instagram y Facebook, con cifras intermedias, mientras que X y YouTube presentan tasas muy bajas: solo el 15 % de los contenidos fueron retirados en X en 2024, y en 2025 la cifra cayó al 9 %; YouTube eliminó un 27 % en 2024 y apenas un 5 % en 2025.
La vía de “trusted flagger” es mucho más eficaz que la denuncia de usuarios
La retirada de contenido mejora notablemente cuando las notificaciones se realizan como trusted flagger (comunicante fiable). En 2024, el 26 % de los contenidos denunciados por esta vía fueron eliminados, frente al 9 % de los notificados por usuarios comunes. En 2025, los resultados confirman esta tendencia: el 23 % de los contenidos denunciados como trusted flagger fueron retirados, pero solo el 10 % de los notificados desde perfiles normales tuvieron el mismo destino.
El 67 % del contenido denunciado sigue visible y con alto grado de hostilidad
A pesar de los avances, el 67 % de los contenidos denunciados en 2025 permanecen accesibles. El análisis cualitativo muestra que el 53 % de ese material deshumaniza a personas migrantes, el 36 % las desacredita por atributos personales y un 26 % incita directamente a su expulsión. Casi la mitad de los casos no retirados se asocian a narrativas de inseguridad ciudadana y un 40 % contiene lenguaje explícitamente agresivo.
OBERAXE pide reforzar la moderación y la cooperación con las plataformas
El informe subraya que, aunque existen marcos normativos como la Ley de Servicios Digitales y el Código de Conducta de la UE, la reacción de las plataformas sigue siendo insuficiente. OBERAXE insta a mejorar la denuncia desde perfiles de usuario, reforzar la colaboración con comunicantes fiables, optimizar la detección automática y acelerar la eliminación de contenidos en las primeras 24 horas para proteger a los grupos diana y avanzar hacia un entorno digital seguro e inclusivo.