SODP logo

    Reducir la clasificación del contenido polarizador reduce la temperatura emocional en las redes sociales, según un nuevo estudio.

    Reducir la visibilidad del contenido polarizador en las redes sociales puede reducir considerablemente la animosidad partidista. Para llegar a este hallazgo, mis colegas y yo desarrollamos un método que permite…
    Actualizado el: 9 de diciembre de 2025
    Tiziano Piccardi

    Creado por

    Tiziano Piccardi

    La conversación

    Hecho verificado por

    La conversación

    Tiziano Piccardi

    Editado por

    Tiziano Piccardi

    Reducir la visibilidad del contenido polarizador en las redes sociales puede reducir considerablemente la animosidad partidista. Para llegar a este hallazgo, mis colegas y yo desarrollamos un método que nos permite modificar la clasificación de las publicaciones de los usuarios , algo que antes solo podían hacer las empresas de redes sociales.

    La reorganización de los feeds de las redes sociales para reducir la exposición a publicaciones que expresaban actitudes antidemocráticas y animosidad partidista afectó las emociones de las personas y sus opiniones sobre las personas con opiniones políticas opuestas.

    Soy informático y estudio computación social, inteligencia artificial y la web. Dado que solo las plataformas de redes sociales pueden modificar sus algoritmos, desarrollamos y lanzamos una herramienta web de código abierto que nos permitió reclasificar en tiempo real los feeds de los participantes que consintieron en X, antes Twitter.

    Basándonos en la teoría de las ciencias sociales, utilizamos un modelo de lenguaje amplio para identificar publicaciones con probabilidades de polarizar a la gente, como aquellas que incitaban a la violencia política o pedían el encarcelamiento de miembros del partido opositor. Estas publicaciones no se eliminaron; simplemente se les dio una clasificación inferior, obligando a los usuarios a desplazarse más para verlas. Esto redujo el número de publicaciones que vieron los usuarios.

    Realizamos este experimento durante 10 días en las semanas previas a las elecciones presidenciales estadounidenses de 2024. Descubrimos que reducir la exposición a contenido polarizador mejoró considerablemente los sentimientos de los participantes hacia las personas del partido contrario y redujo sus emociones negativas al navegar por sus publicaciones. Cabe destacar que estos efectos fueron similares en todas las afiliaciones políticas, lo que sugiere que la intervención beneficia a los usuarios independientemente de su partido político.

    Por qué es importante

    Un error común es creer que las personas deben elegir entre dos extremos: algoritmos basados ​​en la interacción o feeds puramente cronológicos. En realidad, existe una amplia gama de enfoques intermedios según su propósito.

    Los algoritmos de feed suelen estar optimizados para captar la atención y, como resultado, tienen un impacto significativo en las actitudes, el estado de ánimo y la percepción de los demás . Por ello, existe una necesidad urgente de marcos que permitan a los investigadores independientes probar nuevos enfoques en condiciones realistas.

    Nuestro trabajo ofrece un camino a seguir, mostrando cómo los investigadores pueden estudiar y crear prototipos de algoritmos alternativos a escala, y demuestra que, gracias a los grandes modelos de lenguaje, las plataformas finalmente tienen los medios técnicos para detectar contenido polarizador que puede afectar las actitudes democráticas de sus usuarios.

    ¿Qué otras investigaciones se están realizando en este campo?

    Probar el impacto de los algoritmos de transmisión alternativos en plataformas en vivo es difícil, y este tipo de estudios sólo ha aumentado en número recientemente.

    Por ejemplo, una colaboración reciente entre académicos y Meta reveló que cambiar el feed algorítmico a uno cronológico no fue suficiente para demostrar un impacto en la polarización. Un esfuerzo relacionado, el Desafío de Clasificación Prosocial, liderado por investigadores de la Universidad de California en Berkeley, explora alternativas de clasificación en múltiples plataformas para promover resultados sociales beneficiosos.

    Al mismo tiempo, el progreso en el desarrollo de modelos lingüísticos a gran escala permite formas más completas de modelar cómo las personas piensan, sienten e interactúan entre sí. Observamos un creciente interés en brindar a los usuarios mayor control, permitiéndoles decidir qué principios deben guiar lo que ven en sus feeds; por ejemplo, la biblioteca de valores pluralistas de Alexandria y el sistema de reclasificación de feeds Bonsai . Las plataformas de redes sociales, como Bluesky y X , también están avanzando en esta dirección.

    ¿Qué sigue?

    Este estudio representa nuestro primer paso hacia el diseño de algoritmos que tengan en cuenta su potencial impacto social. Aún quedan muchas preguntas abiertas.

    Planeamos investigar los efectos a largo plazo de estas intervenciones y probar nuevos objetivos de clasificación para abordar otros riesgos para el bienestar en línea, como la salud mental y la satisfacción con la vida. El trabajo futuro explorará cómo equilibrar múltiples objetivos, como el contexto cultural, los valores personales y el control del usuario, para crear espacios en línea que fomenten una interacción social y cívica más saludable.

    El informe de investigación es una breve reseña de un trabajo académico interesante.

    Tiziano Piccardi , Profesor Adjunto de Informática, Universidad Johns Hopkins.

    Este artículo se republica de The Conversation bajo una licencia Creative Commons. Lea el artículo original .

    0
    Me encantaría saber tu opinión, por favor comenta. X