CHAPEL
HILL, Carolina del Norte — Los simpatizantes de Donald Trump
probablemente se alegraron mucho en septiembre cuando el candidato
recibió el respaldo del papa Francisco, según un artículo que se
compartió cerca de un millón de veces en Facebook. Las opiniones
negativas de estos sobre Hillary Clinton tal vez se acrecentaron después
de leer un artículo del Denver Guardian, que también se difundió
ampliamente en Facebook, en el cual se señalaba que días antes de la
elección se había encontrado muerto, en un aparente homicidio-suicidio, a
un agente del FBI sospechoso de haber filtrado los correos electrónicos
de Clinton.
Pero hay un problema con estos artículos:
son completamente falsos.
El
papa nunca respaldó a nadie. El Denver Guardian no existe. Sin embargo,
gracias a Facebook, es probable que millones de personas hayan leído
ambos artículos. A pesar de que también circularon correcciones en la
red social, en comparación con el alcance de las mentiras originales
aquellas apenas fueron registradas.
Esto no es una anomalía: el
año pasado me encontré con miles de estas historias falsas en las redes
sociales, así como lo hicieron los votantes estadounidenses, 44 por
ciento de los cuales utiliza Facebook para obtener noticias.
Mark
Zuckerberg, el director y creador de Facebook, dice que es “una idea muy
descabellada” que “las noticias falsas que se encuentran en Facebook
—las cuales representan una cantidad muy pequeña de contenido— hayan
influido de algún modo en las elecciones”. Si Zuckerberg cree ciegamente
que su empresa tiene poco efecto en cómo decide la gente, está haciendo
un daño a la democracia estadounidense y al mundo.
También está contradiciendo las propias investigaciones de Facebook.
En
2010, unos investigadores que trabajaban con Facebook llevaron a cabo
un experimento con 61 millones de usuarios en Estados Unidos, justo
antes de las elecciones para el congreso y gobernadores. A un grupo se
le mostraba un mensaje dentro de una caja que solo decía “ve a votar”,
mientras que otro grupo vio el mismo mensaje con una pequeña
incorporación: fotos miniatura de sus amigos de Facebook que habían dado
clic en “yo voté”. Los investigadores concluyeron que la segunda
publicación había ayudado a que cientos de miles de personas salieran a
votar; lo comprobaron usando el padrón para comparar los grupos después
de las elecciones.
En 2012, los investigadores de Facebook
alteraron en secreto el suministro de noticias para realizar un
experimento: mostraron publicaciones positivas a algunas personas,
mientras que a otras les mostraron negativas. Los que vieron
publicaciones más optimistas difundieron a su vez significativamente más
del mismo tipo; los que vieron publicaciones pesimistas respondieron de
la misma manera, pero con este tipo de publicaciones. Las
investigaciones que se han llevado a cabo durante décadas coinciden en
que la gente recibe la influencia de sus pares y las redes sociales.
Si
se toma en cuenta todo lo anterior, se vuelve absurda la declaración de
Zuckerberg al respecto de que Facebook, un gran conducto de información
en nuestra sociedad, “no influye”.
El problema con la influencia de Facebook en el discurso político no se limita a la diseminación de noticias falsas.
También tiene que ver con las cámaras de resonancia. El algoritmo de la
empresa escoge cuáles actualizaciones aparecen en la parte superior del
servicio de noticias del usuario y cuáles no lo hacen. Los humanos
tendemos a agruparnos con gente que piensa como nosotros y buscamos
noticias que confirmen nuestras inclinaciones. La investigación de
Facebook muestra que el algoritmo de la empresa fomenta esto priorizando
de algún modo las actualizaciones que los usuarios encuentran
reconfortantes.
He sido testigo de esto. Aunque muchos de mis
amigos de Facebook en Estados Unidos se inclinan hacia los demócratas,
sí tengo amigos que votaron por Trump. Sin embargo, tuve que irme de
cacería para ver sus publicaciones porque el algoritmo de Facebook nunca
me las enseñaba; por la razón que sea, el algoritmo supuso de manera
errónea que no me interesaban sus opiniones.
El contenido que se
dirige hacia estas burbujas alimentadas de algoritmos es provechoso
financieramente. Por eso YouTube tiene una característica similar en la
que recomienda videos con base en lo que ya vio el visitante.
Según
un reportaje de BuzzFeed News, un grupo de jóvenes en un pueblo de
Macedonia operan más de cien sitios web a favor de Trump llenos de
noticias falsas. Por ejemplo, el artículo que inventaron, en el cual
citan que fuentes anónimas del FBI señalan que Clinton debiera ser
procesada, se compartió más de 140.000 veces en Facebook y probablemente
lo vieron millones de personas, ya que cada vez que algo se comparte lo
ven potencialmente cientos de usuarios. Aun si cada vista generara solo
una fracción de centavo, sigue siendo mucho dinero.
Por supuesto,
las noticias falsas por sí solas no explican el resultado de las
elecciones. La gente vota como vota por varias razones,
pero su dieta informativa es crucial.
Después
de las elecciones, Zuckerberg señaló que las noticias falsas eran un
problema para “los dos lados” de la contienda. Evidentemente, hay memes
virales falsos en contra de Trump, pero los reporteros han encontrado
que
la difusión de noticias falsas es mucho más común por parte de la derecha que de la izquierda.
Los
jóvenes macedonios también se toparon con lo mismo. Habían
experimentado con contenido con inclinación hacia la izquierda o a favor
de Bernie Sanders, pero se dieron por vencidos cuando se percataron de
que no era una fuente tan confiable de ingresos como el contenido a
favor de Trump. Sin embargo, incluso si Zuckerberg tuviera razón y las
noticias falsas fueran igualmente populares en ambos bandos, aún
seguiría siendo un problema.
Solamente Facebook tiene los datos
que podrían revelar cómo se difunden noticias falsas, qué tantas hay,
quién crea este contenido, quién lo lee y cuánto puede influir. Por
desgracia, Facebook ejerce un control total sobre el acceso a estos
datos por parte de investigadores independientes.
Es como si las tabacaleras controlaran el acceso a todos los registros médicos y de hospitales.
No son problemas sencillos de resolver, pero Facebook podría hacer mucho más. Cuando la empresa decidió que quería reducir el
spam,
estableció una política que limitaba su difusión. Si Facebook pusiera
el mismo tipo de atención en las noticias falsas, también podría
minimizar su propagación.
Hace poco, la empresa despidió a los
editores responsables de erradicar las noticias falsas de su sección de
tendencias (de por sí tenían pocos). Por lo tanto, no es una sorpresa
que desde entonces esta sección se haya inundado de aun más artículos
espurios.
En junio pasado, justo cuando se estaba poniendo en marcha la temporada de elecciones en Estados Unidos,
Facebook
modificó su algoritmo para restar importancia a las publicaciones de
medios de noticias para aumentar las actualizaciones que compartían
amigos y familiares. La explicación razonable es que eso es lo
que la gente quiere ver. ¿Esto quiere decir que se difunden notas menos
serias a mayor velocidad por las redes sociales mientras decae el
verdadero periodismo? Solo Facebook lo sabe. Peor aún, Facebook no
señala ni marca los sitios creíbles de noticias: el artículo del Denver
Guardian, un periódico que ni siquiera existe, tiene el mismo formato en
la plataforma que tendría uno del The Denver Post, un periódico real.
Además
de hacer un esfuerzo por erradicar mentiras y propaganda, Facebook
podría alterar su algoritmo para que se refuercen menos las creencias de
los usuarios y para presentar más información basada en hechos. Esto
podría ser complicado, pero tal vez los multimillonarios de Silicon
Valley que ayudaron a crear este problema podrían hacerse responsables
antes de disponerse a colonizar Marte.
Facebook también debería
permitir que investigadores independientes colaboraran con su equipo de
datos para entender y mitigar estos problemas. Un servicio de noticias
más balanceado podría llevar a que la gente se “enganche” menos, pero
Facebook, sin un competidor a la vista y con una capitalización bursátil
de más de 300 mil millones de dólares, se lo puede permitir.
Los
riesgos de la configuración actual de Facebook no se limitan a Estados
Unidos. Los efectos pueden ser incluso más catastróficos en países con
menos pesos y contrapesos, y que tienen instituciones y medios
independientes más débiles. En Birmania, por ejemplo, la desinformación
en Facebook supuestamente ayudó a detonar una limpieza étnica, la cual
creó una enorme crisis de refugiados.
Facebook podría argumentar
que es neutral, pero esta es una postura falsa y peligrosa. El modelo de
negocio, los algoritmos y las políticas de la empresa afianzan cámaras
de resonancia y generan que se difunda la desinformación.
Si se tiene esta postura, no se es neutral; se amplifican las corrientes peligrosas que están enturbiando el mundo.
Zeynep
Tufekci es profesora adjunta de la Escuela de Ciencias de la
Información y Biblioteconomía de la Universidad de Carolina del Norte, y
colaboradora como columnista de opinión.
* NOTA DEL EDITOR DEL BLOG
Habría
que ver cuál sería el “ente” que clasificaría qué noticias son
verdaderas y cuáles no y bajo qué principios, así como qué entendería
Facebook por “sitios creíbles de noticias”. O sea, que el problema
planteado en el artículo se une a la desinformación y las campañas de
mentiras lanzadas consciente e intencionalmente por los medios de prensa
tradicionales, que responden al gran capital internacional con el
objetivo de asediar y agredir procesos nacionales que asumen un
desarrollo independientes no subordinado a sus intereses.. Ejemplo e
ellos son las campañas mediáticas contra Venezuela, contra Cuba y otros
países.
Fuente: The New York Times español
Visto en: Guerra Simbólica (
link)