Elon Musk podría hacer retroceder la moderación de las redes sociales

Elon Musk podría hacer retroceder la moderación de las redes sociales

19 Mayo 2022
Esto sucede justo cuando estamos aprendiendo cómo puede detener la desinformación. Pero claramente, si el objetivo de moderar la información errónea era reducir la propagación de afirmaciones falsas, los esfuerzos de las empresas de redes sociales no fueron del todo efectivos.
La Conversación >
authenticated user Corresponsal Corresponsal Aliado

 

Por Harith Alani, Grégoire Burel y y Tracie Farrell profesores e investigadores de The Open University.

La compra de Twitter por US $ 44 mil millones (£ 36 mil millones) por parte del "absolutista de la libertad de expresión" Elon Musk tiene a muchas personas preocupadas. La preocupación es que el sitio comenzará a moderar menos el contenido y a difundir más información errónea, especialmente después de su anuncio de que revertiría la prohibición del expresidente estadounidense Donald Trump.

Hay una buena razón para la preocupación. Las investigaciones muestran que compartir información no confiable puede afectar negativamente la civilidad de las conversaciones, las percepciones de cuestiones sociales y políticas clave y el comportamiento de las personas.

La investigación también sugiere que simplemente publicar información precisa para contrarrestar las cosas falsas con la esperanza de que la verdad triunfe no es suficiente. También se necesitan otros tipos de moderación. Por ejemplo, nuestro trabajo sobre la desinformación en las redes sociales durante el COVID mostró que se difundió de manera mucho más efectiva que los artículos de verificación de hechos relacionados.

Esto implica que siempre se necesitará algún tipo de moderación para impulsar la difusión de información precisa y permitir que prevalezca el contenido fáctico. Y si bien la moderación es un gran desafío y no siempre logra detener la información errónea, estamos aprendiendo más sobre lo que funciona a medida que las empresas de redes sociales aumentan sus esfuerzos.

Durante la pandemia, se compartió una gran cantidad de información errónea y se amplificaron mensajes falsos poco confiables en todas las plataformas principales. El papel de la información errónea relacionada con las vacunas en la vacilación de las vacunas, en particular, intensificó la presión sobre las empresas de redes sociales para que hicieran más moderación.

Meta, propietario de Facebook, trabajó con verificadores de hechos de más de 80 organizaciones durante la pandemia para verificar y reportar información errónea, antes de eliminar o reducir la distribución de publicaciones. Meta afirma haber eliminado más de 3000 cuentas, páginas y grupos y 20 millones de piezas de contenido por infringir las reglas sobre el COVID-19 y la información errónea relacionada con las vacunas.

La eliminación tiende a reservarse para contenido que viola ciertas reglas de la plataforma, como mostrar prisioneros de guerra o compartir contenido falso y peligroso. El etiquetado es para llamar la atención sobre contenido potencialmente poco confiable. Las reglas que siguen las plataformas para cada caso no están escritas en piedra y no son muy transparentes.

Twitter ha publicado políticas para resaltar su enfoque para reducir la información errónea, por ejemplo, con respecto a COVID o medios manipulados. Sin embargo, es difícil determinar cuándo se aplican dichas políticas y con qué fuerza, y parece variar significativamente de un contexto a otro.

Por qué la moderación es tan difícil

Pero claramente, si el objetivo de moderar la información errónea era reducir la propagación de afirmaciones falsas, los esfuerzos de las empresas de redes sociales no fueron del todo efectivos para reducir la cantidad de información errónea sobre COVID-19.

En el instituto de medios de conocimiento de la Open University, hemos estado estudiando cómo la información errónea y las verificaciones de hechos correspondientes se difunden en Twitter desde 2016. Nuestra investigación sobre COVID encontró que las verificaciones de hechos durante la pandemia aparecieron relativamente rápido después de la aparición de información errónea. Pero la relación entre las apariencias de verificaciones de hechos y la difusión de información errónea en el estudio fue menos clara.

El estudio indicó que la desinformación era dos veces más frecuente que las verificaciones de hechos correspondientes. Además, la información errónea sobre las teorías de la conspiración era persistente, lo que concuerda con investigaciones anteriores que argumentan que la veracidad es solo una de las razones por las que las personas comparten información en línea y que las verificaciones de hechos no siempre son convincentes.

Entonces, ¿cómo podemos mejorar la moderación? Los sitios de redes sociales enfrentan numerosos desafíos. Los usuarios excluidos de una plataforma aún pueden volver con una nueva cuenta o resucitar su perfil en otra plataforma. Los difusores de información errónea utilizan tácticas para evitar ser detectados, por ejemplo, utilizando eufemismos o imágenes para evitar ser detectados.

Los enfoques automatizados que utilizan el aprendizaje automático y la inteligencia artificial no son lo suficientemente sofisticados para detectar información errónea con mucha precisión. A menudo sufren de prejuicios, falta de capacitación adecuada, dependencia excesiva del idioma inglés y dificultad para manejar información errónea en imágenes, videos o audio.

Diferentes enfoques

Pero también sabemos que algunas técnicas pueden ser efectivas. Por ejemplo, la investigación ha demostrado que el uso de indicaciones simples para alentar a los usuarios a pensar en la precisión antes de compartir puede reducir la intención de las personas de compartir información errónea en línea (al menos en entornos de laboratorio). Twitter dijo anteriormente que descubrió que etiquetar el contenido como engañoso o inventado puede retrasar la propagación de cierta información errónea.

Más recientemente, Twitter anunció un nuevo enfoque, introduciendo medidas para abordar la información errónea relacionada con la invasión rusa de Ucrania. Estos incluyen agregar etiquetas a los tweets que comparten enlaces a sitios web de medios afiliados al estado ruso. También redujo la circulación de este contenido y mejoró su vigilancia de las cuentas pirateadas.

Twitter está empleando personas como curadores para escribir notas que brinden contexto o notas sobre las tendencias de Twitter, relacionadas con la guerra para explicar por qué las cosas están de moda. Twitter afirma haber eliminado 100.000 cuentas desde que comenzó la guerra de Ucrania que estaban en "violación de su estrategia de manipulación de plataforma". También dice que también ha etiquetado o eliminado 50.000 piezas de contenido relacionado con la guerra de Ucrania.

En una investigación aún no publicada, realizamos el mismo análisis que hicimos para COVID-19, esta vez en más de 3400 afirmaciones sobre la invasión rusa de Ucrania, luego monitoreamos los tweets relacionados con esa información errónea sobre la invasión de Ucrania y los tweets con verificaciones de datos adjuntas. . Empezamos a observar diferentes patrones.

Notamos un cambio en la difusión de información errónea, en el sentido de que las afirmaciones falsas parecen no estar difundiéndose tan ampliamente y eliminarse más rápidamente, en comparación con escenarios anteriores. Son los primeros días, pero una posible explicación es que las últimas medidas han tenido algún efecto.

Si Twitter ha encontrado un conjunto útil de intervenciones, volviéndose más audaz y eficaz en la curación y etiquetado de contenido, esto podría servir como modelo para otras plataformas de redes sociales. Al menos podría ofrecer una idea del tipo de acciones necesarias para impulsar la verificación de hechos y frenar la desinformación. Pero también hace que la compra del sitio por parte de Musk y la implicación de que reducirá la moderación sean aún más preocupantes.