Desde hace tiempo, las redes sociales han sido objeto de críticas por convertirse en espacios de polarización, eco-cámaras y amplificadores de contenido incendiario. La culpa suele recaer sobre los algoritmos que deciden qué vemos y qué no. Pero, ¿qué pasaría si el problema fuera más profundo?
El Estudio que Desafía el Status Quo
Investigadores de la Universidad de Ámsterdam, Petter Törnberg y Maik Larooij, han publicado un estudio que sugiere que la toxicidad en redes sociales no es un simple fallo algorítmico, sino una consecuencia inherente a su propia estructura. Incluso en modelos de redes sociales minimalistas, sin algoritmos de recomendación complejos, emergen las mismas dinámicas negativas.
Simulando la Sociedad en la Red
Para llegar a esta conclusión, los investigadores crearon un modelo de red social simulada, poblada por “personas sintéticas” basadas en perfiles demográficos reales. Estos agentes virtuales podían publicar, leer, republicar y seguir a otros usuarios. La sorpresa fue que, sin manipulación algorítmica, las características tóxicas surgieron de forma espontánea.
Probando Posibles Soluciones: Un Fracaso Desalentador
El equipo de investigación probó seis soluciones comunes propuestas para mitigar la toxicidad en redes sociales:
- Feeds cronológicos o aleatorios.
- Reducir la visibilidad del contenido viral y sensacionalista.
- Aumentar la diversidad de puntos de vista mostrados.
- Implementar “algoritmos de puente” para fomentar el entendimiento mutuo.
- Ocultar métricas sociales (reposts, seguidores).
- Suprimir biografías para limitar marcadores identitarios.
Los resultados fueron decepcionantes. Ninguna de las medidas logró desactivar el mecanismo subyacente de toxicidad, y algunas incluso empeoraron otros aspectos. Por ejemplo, el orden cronológico redujo la desigualdad de atención, pero intensificó la amplificación de contenido extremo.
La Retroalimentación Tóxica: Emociones y Estructura
El estudio revela un ciclo vicioso: las emociones, como el impulso de compartir contenido indignante, moldean la estructura de la red. Y esa estructura, a su vez, selecciona el contenido que vemos, perpetuando la toxicidad. En esencia, la simple funcionalidad de publicar, republicar y seguir crea las condiciones para la polarización, independientemente de los algoritmos.
El 1%, la IA y el Futuro de las Redes
El estudio también destaca la desigualdad de atención en redes, donde una pequeña élite domina la conversación. Esta dinámica se ve exacerbada por la llegada de la inteligencia artificial, que permite la creación masiva de contenido diseñado para maximizar la atención, a menudo a través de la desinformación y la polarización.
Ante este panorama, la reacción social parece dirigirse hacia fuentes de información más confiables y espacios privados, como grupos de WhatsApp. Sin embargo, la toxicidad podría infiltrarse también en estos entornos.
Conclusión: ¿Estamos Atrapados en un Bucle Tóxico?
Este estudio nos obliga a replantearnos la naturaleza de las redes sociales. Si la toxicidad es inherente a su estructura, las soluciones superficiales no serán suficientes. Tal vez sea necesario un cambio radical en el diseño y la funcionalidad de estas plataformas para crear espacios de diálogo más saludables y constructivos.
Fuente: GenBeta
Leave a Comment