Chihuahua, Chih.
¿Qué tienen en común el asesinato de dos profesoras en una preparatoria de Lázaro Cárdenas, Michoacán, por parte de un adolescente que se autodenomina “incel” y la escalada de odio recibida por parte de Marea Verde Chihuahua a razón de la noticia del acceso a servicios de aborto en el IMSS? ¿En qué se diferencia el contenido sensacionalista y provocador del clickbait tradicional o los titulares amarillistas?
En los últimos dos siglos, con el auge de los medios de comunicación masivos, han surgido múltiples variantes de contenido provocador, desde noticias de interés hasta podcasts de entrevistas sensacionalistas o de crímenes reales. En los últimos años, lo que distingue este tipo de contenido es que surge de entre usuarios/as de redes sociales que buscan ampliar su visibilidad para incrementar sus ingresos en línea. El mensaje se propaga como pólvora, amplificado por el diseño algorítmico de las plataformas digitales y la interacción negativa del público: entre más se alimenta la indignación y la ira de los demás, más ganancias hay para las y los creadores de contenido.
La radicalización y la misoginia exacerbada de siempre, ahora instalada en escenarios digitales que la potencializan, hace que temas sociales complejos generen en su análisis la colisión de la lógica tradicional, la psicología y el diseño de software. No es solo percepción social; existe evidencia documentada en investigaciones científicas que explican cómo la arquitectura de las redes sociales prioriza el contenido incendiario para maximizar los tiempos de permanencia en ellas.
A esto se le llama Economía de la Atención[i] y encuentra su más óptimo mecanismo en el “ragebait” (cebo de ira), nombrado así y reconocido como palabra del año en 2025 por Oxford University Press, reflejando su dominio en la cultura digital. Este atiende principalmente al sesgo de negatividad; investigadores de instituciones como el MIT Sloan han demostrado que nuestro cerebro está evolutivamente programado para priorizar amenazas. Los algoritmos de recomendación (TikTok, Instagram y Facebook) detectan que el contenido que genera indignación recibe más comentarios y es más veces “compartido” que el contenido positivo[ii].
Por otro lado, hay una relación entre la dopamina y el ultraje moral. Un estudio de la Universidad de Yale explica que expresar indignación moral en línea activa el sistema de recompensa en el cerebro (dopamina). El algoritmo interpreta esta interacción emocional intensa como “calidad” y la proyecta a una audiencia mayor, creando un ciclo de retroalimentación donde el odio es más rentable que el consenso[iii].
Por último, organizaciones como el Center for Countering Digital Hate (CCDH) han publicado informes sobre cómo los algoritmos exponen deliberadamente a adolescentes y jóvenes a contenido misógino. A esto se le conoce como el “Efecto Andrew Tate”: en el más revelador, publicado en 2025, se detalla cómo plataformas como YouTube y TikTok, a pesar de las prohibiciones oficiales, siguen beneficiándose de contenidos que promueven la "manosfera". El algoritmo detecta el interés de usuarios en temas de "superación personal" o "fitness" y, mediante asociaciones estadísticas, comienza a sugerir videos con narrativas de supremacía masculina.
En el último año ha habido una explosión de contenido misógino, homófobo y transfóbico en YouTube y otras plataformas. En México, el principal exponente es El Temach y su “modo guerra”. Este contenido genera millones de vistas por parte de adolescentes y hombres jóvenes impresionables que lo comparten entre sus compañeros y profesores.
Lo anterior trae consigo un incremento exponencial de violencia digital contra mujeres: el informe de la UNESCO (2025) titulado "Tipping Point"[iv] revela que el 75% de las mujeres en roles públicos (periodistas, políticas, activistas) han sufrido violencia en línea. El análisis muestra que los ataques coordinados y los "deepfakes" misóginos se viralizan más rápido porque los sistemas de moderación automatizada suelen fallar al detectar ironía, sarcasmo o contextos culturales específicos. El sesgo algorítmico de moderación suele silenciar el "contradiscurso" (mujeres defendiéndose) más que al agresor original.
Esta arquitectura no es un error de código, sino una característica de diseño. El fenómeno de las "cámaras de eco de odio" se ve agravado por lo que la investigadora Safiya Noble denomina algoritmos de opresión. Al priorizar el engagement sobre la seguridad, las plataformas crean un entorno donde la radicalización de jóvenes hacia posturas de la "manosfera" ocurre de manera casi invisible para el ojo no entrenado, pero con efectos devastadores en el mundo físico. No se trata simplemente de opiniones impopulares; es una infraestructura digital que subvenciona la misoginia al convertir el ataque coordinado en una métrica de éxito comercial.
En definitiva, la violencia digital de género no podrá erradicarse mientras el modelo de negocio de las Big Tech dependa de nuestra indignación. La solución requiere transitar de la simple moderación de contenidos hacia una "Gobernanza Algorítmica con Enfoque de Género", tal como sugieren las directrices recientes de la ONU. Es urgente exigir una auditoría técnica de los sistemas de recomendación que desmantele los incentivos del ragebait y priorice la integridad humana sobre el tiempo de permanencia. Si la arquitectura digital es la que hoy propaga el fuego de la misoginia, es una responsabilidad política exigir que se rediseñen los cimientos de la red, antes de que el daño al tejido social sea irreversible.
El odio no es inevitable; es una decisión de ingeniería.
@marielousalomé
Referencias:
[i] https://news.stanford.edu/stories/2025/12/rage-bait-explained-oxford-word-year [ii] A Misogynistic Glitch? A Feminist Critique of Algorithmic Content Moderation. Valentina Golunova. 2025. [iii] Rage-bait algorithms explained: Why anger drives reach. Radosław Różycki. 2025. [iv] Tipping Point: The chilling escalation of violence against women in the public sphere in the age of AI. UNESCO/UN Women. 2025.