Luchando contra las redes sociales antisociales
Por: Mariano Bernardez
Las redes sociales se han convertido en la principal fuente de noticias para una parte importante de la población mundial: el 53% de los adultos estadounidenses y el 47% de los miembros de la Unión Europea consumen regularmente noticias de las plataformas sociales.
Sin embargo, el auge de las redes sociales como fuente de noticias ha planteado desafíos, incluida la difusión de noticias falsas, discursos de odio y teorías de conspiración, lo que ha contribuido a la polarización política y el malestar social.
La investigación destaca una tendencia preocupante en la que la exposición a información errónea en las redes sociales se correlaciona con un aumento de los problemas sociales, incluido un aumento del 6 % en la polarización política en los EE. UU. y una probabilidad un 10 % mayor de radicalización entre aquellos expuestos a contenido extremista. Además, alrededor del 18% de los tiroteos masivos están vinculados a perpetradores influenciados por la retórica extremista en línea.
En respuesta a estos desafíos, se han desarrollado varios modelos innovadores que aprovechan estrategias tanto algorítmicas como no algorítmicas para combatir la difusión de contenido dañino. Éstas incluyen:
Algoritmos de moderación de contenido: técnicas de aprendizaje automático que reducen la visibilidad o la interacción con contenido dañino; plataformas como Facebook ven una reducción de más del 50 % en la exposición de los usuarios a contenido dañino después de la implementación.
Sistemas de informes de usuarios: las mejoras han dado lugar a una mejora del 30 % en la precisión de la identificación de contenido inapropiado y una reducción del 50 % en el tiempo de respuesta.
El filtrado colaborativo y la ruptura de la cámara de eco son técnicas que fomentan la exposición a diversos puntos de vista y reducen con éxito la interacción con contenido homogéneo o extremo.
Empuje conductual: advertencias sutiles que han reducido el intercambio de información errónea en un 20 %.
Reducción de clasificación y despriorización: acciones que han resultado en una caída del 70 % en las visualizaciones de contenido potencialmente dañino.
Verificación de hechos colaborativa e IA contextual: estrategias que han reducido significativamente la circulación de contenido falso y malas interpretaciones.
Informes de Transparencia y Equipos Interdisciplinarios: Estas medidas han fomentado una mayor confianza y han reducido los errores de moderación de contenidos hasta en un 40%.
Estos modelos ejemplifican cómo la innovación tecnológica, combinada con estrategias reflexivas impulsadas por humanos, puede mitigar eficazmente algunos de los aspectos más desafiantes de la gestión de redes sociales, mejorando la experiencia del usuario y la integridad de la plataforma.
La persistencia de noticias falsas y comportamientos antisociales en las plataformas de redes sociales subraya la necesidad de una respuesta sostenida y multifacética, que potencialmente incluya educación masiva en educación cívica, lógica e inteligencia emocional para fomentar la empatía y la cohesión social.
Este enfoque multifacético, como se detalla en las últimas investigaciones y estudios de casos, ofrece un plan para mejorar el papel de las redes sociales en la sociedad, asegurando que contribuyan positivamente a la difusión de información y la interacción social.
Comments