El Sistema FARO detecta 331.817 contenidos de odio entre julio y septiembre, impulsados por episodios de inseguridad, desinformación y conflicto internacional
El Observatorio Español del Racismo y la Xenofobia (OBERAXE) ha publicado el boletín de monitorización del discurso de odio correspondiente al periodo 1 de julio – 30 de septiembre de 2025, elaborado a partir de los datos del Sistema FARO, la herramienta de inteligencia artificial desarrollada junto a LALIGA para el análisis en tiempo real del odio racista y xenófobo en redes sociales.
Durante este trimestre, el monitor detectó 331.817 contenidos de odio reportables, la cifra más alta registrada en lo que va de año, casi el doble que en el trimestre anterior. Las plataformas digitales retiraron el 45% de los contenidos notificados por el OBERAXE.
Incremento excepcional en julio tras episodios locales y difusión de desinformación
El boletín muestra un aumento significativo de contenidos de odio durante el mes de julio, con un pico el 12 de julio, día en que se alcanzaron 32.892 contenidos, coincidiendo con la cobertura del suceso de Torre Pacheco (Murcia). Este episodio generó miles de mensajes que incitaban a la violencia o a la expulsión de personas migrantes, con expresiones abiertamente deshumanizadoras.
Pocos días después, la difusión de información falsa sobre un joven migrante en La Isleta (Gran Canaria) volvió a desencadenar una oleada de mensajes hostiles, pese a que posteriormente se confirmó que había intentado auxiliar a la víctima.
En agosto, la detención de un menor del centro de Hortaleza (Madrid) reactivó el discurso que asocia migración y delincuencia, manteniéndose la tendencia durante septiembre.
Personas del norte de África y población musulmana, principales grupos diana
El 79% de los contenidos de odio detectados se dirigieron a personas del norte de África, seis puntos más que en el trimestre anterior. Les siguieron las personas musulmanas (16%) y las personas africanas y afrodescendientes (8%).
El discurso dirigido a niños, niñas y adolescentes no acompañados aumentó hasta el 5%, posiblemente vinculado al suceso del centro de menores de Hortaleza.
Las principales palabras clave detectadas en los mensajes fueron términos como “mierda”, “mena” o “basura”, confirmando el peso del lenguaje despectivo y la estigmatización.
Deshumanización, amenazas y llamados a la expulsión
El boletín identifica que el 36% de los contenidos promovieron la deshumanización o degradación, mientras que un 31% presentaba a personas migrantes como una amenaza para la seguridad. Un 10% incitaba directamente a la violencia y un 6% elogiaba acciones violentas o a quienes difundían mensajes de odio.
Asimismo, el análisis detectó un uso habitual de lenguaje agresivo (91%), así como un incremento de expresiones en código mediante símbolos, números o emojis (“e l negr☻ suci☻”, “bombard3£#ar”), diseñadas para evadir la detección automática de las plataformas.
El boletín también destaca un uso recurrente de emojis con carga simbólica —como animales para deshumanizar o fuego para expresar agresión— que refuerzan la normalización del odio.
La inseguridad ciudadana, principal detonante del odio en redes
Los discursos vinculados a inseguridad ciudadana supusieron el 61% de los contenidos monitorizados, seguidos por los relativos a conflicto armado (21%) y ámbito económico (17%).
Los mensajes relacionados con llegadas en embarcaciones (5%) incluyeron expresiones extremadamente violentas y deshumanizadoras.
En relación con el conflicto internacional, los mensajes islamófobos y antisemitas se activaron con fuerza durante la cobertura de la guerra entre Israel y Palestina, las manifestaciones asociadas y otros episodios que generaron picos de polarización.
Las plataformas refuerzan su respuesta, pero con grandes diferencias
Durante el trimestre, las plataformas retiraron el 45% de los contenidos notificados, un aumento de más de 11 puntos respecto al trimestre anterior. La vía del trusted flagger fue determinante, concentrando el 74% de las retiradas, frente al 12% logradas por usuarios normales.
El tiempo de respuesta sigue siendo limitado:
- solo un 8% se retiró en menos de 24 horas,
- un 1% adicional en 48 horas,
- y un 3% en el plazo de una semana.
En cuanto a plataformas:
- TikTok fue la más eficaz (96% de retirada),
- seguida de Instagram (62%) y Facebook (43%),
- mientras que X (10%) y YouTube (7%) presentaron tasas mucho menores.
Cooperación institucional tras los sucesos de Torre Pacheco
El fuerte aumento del discurso de odio en julio llevó al MISSM a convocar una reunión urgente con las principales plataformas digitales para reforzar la coordinación y analizar medidas de contención. En septiembre, un nuevo encuentro del grupo de trabajo permitió avanzar en compromisos y acordar reuniones trimestrales regulares.
El boletín destaca que este episodio marcó un punto de inflexión en la respuesta institucional y en la cooperación con plataformas para contener la difusión del odio y proteger a los grupos diana.