El problema con la influencia de Facebook y sus burbujas de información.
Por Zeynep Tufekci, publicado por The New York Times/es CHAPEL HILL, Carolina del Norte — Los simpatizantes de Donald Trump probablemente se alegraron mucho en septiembre cuando el candidato recibió el respaldo del papa Francisco, según un artículo que se compartió cerca de un millón de veces en Facebook. Las opiniones negativas de estos sobre Hillary Clinton tal vez se acrecentaron después de leer un artículo del Denver Guardian, que también se difundió ampliamente en Facebook, en el cual se señalaba que días antes de la elección se había encontrado muerto, en un aparente homicidio-suicidio, a un agente del FBI sospechoso de haber filtrado los correos electrónicos de Clinton.
Pero hay un problema con estos artículos: son completamente falsos.
El papa nunca respaldó a nadie. El Denver Guardian no existe. Sin embargo, gracias a Facebook, es probable que millones de personas hayan leído ambos artículos. A pesar de que también circularon correcciones en la red social, en comparación con el alcance de las mentiras originales aquellas apenas fueron registradas.
Esto no es una anomalía: el año pasado me encontré con miles de estas historias falsas en las redes sociales, así como lo hicieron los votantes estadounidenses, 44 por ciento de los cuales utiliza Facebook para obtener noticias.
Mark Zuckerberg, el director y creador de Facebook, dice que es “una idea muy descabellada” que “las noticias falsas que se encuentran en Facebook —las cuales representan una cantidad muy pequeña de contenido— hayan influido de algún modo en las elecciones”. Si Zuckerberg cree ciegamente que su empresa tiene poco efecto en cómo decide la gente, está haciendo un daño a la democracia estadounidense y al mundo.
También está contradiciendo las propias investigaciones de Facebook.
En 2010, unos investigadores que trabajaban con Facebook llevaron a cabo un experimento con 61 millones de usuarios en Estados Unidos, justo antes de las elecciones para el congreso y gobernadores. A un grupo se le mostraba un mensaje dentro de una caja que solo decía “ve a votar”, mientras que otro grupo vio el mismo mensaje con una pequeña incorporación: fotos miniatura de sus amigos de Facebook que habían dado clic en “yo voté”. Los investigadores concluyeron que la segunda publicación había ayudado a que cientos de miles de personas salieran a votar; lo comprobaron usando el padrón para comparar los grupos después de las elecciones.
En 2012, los investigadores de Facebook alteraron en secreto el suministro de noticias para realizar un experimento: mostraron publicaciones positivas a algunas personas, mientras que a otras les mostraron negativas. Los que vieron publicaciones más optimistas difundieron a su vez significativamente más del mismo tipo; los que vieron publicaciones pesimistas respondieron de la misma manera, pero con este tipo de publicaciones. Las investigaciones que se han llevado a cabo durante décadas coinciden en que la gente recibe la influencia de sus pares y las redes sociales.
Si se toma en cuenta todo lo anterior, se vuelve absurda la declaración de Zuckerberg al respecto de que Facebook, un gran conducto de información en nuestra sociedad, “no influye”.
El problema con la influencia de Facebook en el discurso político no se limita a la diseminación de noticias falsas. También tiene que ver con las cámaras de resonancia. El algoritmo de la empresa escoge cuáles actualizaciones aparecen en la parte superior del servicio de noticias del usuario y cuáles no lo hacen. Los humanos tendemos a agruparnos con gente que piensa como nosotros y buscamos noticias que confirmen nuestras inclinaciones. La investigación de Facebook muestra que el algoritmo de la empresa fomenta esto priorizando de algún modo las actualizaciones que los usuarios encuentran reconfortantes.