Los usuarios de Facebook que están preocupados de que los anunciantes recolecten sus datos personales
para manipularlos con propaganda política tienen una herramienta
poderosa para romper el hechizo: un botón en la esquina de cada anuncio
de Facebook que dice "¿Por qué estoy viendo esto?".
En lugar de proporcionar
ayuda a los usuarios, esta herramienta de Facebook suele ser engañosa y
a veces falsa, razones por las cuales han sido objeto de robo de
información, de acuerdo a pruebas de Bloomberg Businessweek. Un nuevo
estudio académico que analizó miles de anuncios prueba que las
explicaciones de Facebook han omitido “detalles clave que permitirían a
los usuarios comprender y potencialmente controlar la forma en que se
dirigen”.
Para Mark Zuckerberg, como
cofundador, y sus reguladores del gobierno, quienes lidian con el
escándalo de Cambridge Analytica y presuntas intromisiones en las
elecciones de 2016, el botón "¿Por qué estoy viendo esto?", de Facebook
es una innovación prometedora.
Al dejar que los usuarios sepan
por qué los anunciantes los han elegido, esta opción tiene el potencial
de reventar burbujas partidistas que aíslan a los votantes y expone el
micro-objetivo utilizado para dividir al electorado. También es una
ventana al corazón de lo que realmente es Facebook como empresa: una
compañía publicitaria que hace dinero con los anunciantes que emplean
datos de usuarios para apuntar a su público.
Por ahora la promesa de
transparencia del botón corre el riesgo de ser una noticia falsa en sí
misma, precisamente en el momento en que las elecciones de noviembre de
2018 de los Estados Unidos se avecinan y se vislumbra como una
oportunidad de redención de la compañía.
Observé las deficiencias al
tiempo que me concentraba en las elecciones italianas de este mes, como
una carrera en seco para los exámenes parciales de Estados Unidos. El
plan era tirar una carnada para la guerra de la información y luego ver a
dónde me llevarían los algoritmos y la configuración del anuncio.
El primer paso fue hacer clic en
"Me gusta" en la página de un partido antiinmigrante; ésta era la
primera vez que lo hacía para cualquier grupo partidario. Cerca de una
hora después, conseguí algo: apareció un anuncio para un partido
neofascista aún más de derecha. El plan parecía estar funcionando.
Para confirmar que me habían
arrastrado a las franjas de Facebook por mi nueva preferencia, hice clic
en un botón en el borde del anuncio que decía: "¿Por qué estoy viendo
esto?".
La caja que apareció proporcionó
la explicación menos transparente posible. Me habían atacado porque el
candidato en el anuncio "quiere llegar a personas de 13 años en
adelante" en la región italiana que incluye a Roma. Facebook simplemente
había escupido el requisito de edad mínima del sitio y la ubicación de
mi computadora.
Resultó que lo que estaba viendo
anecdóticamente ya estaba confirmado con datos. Dos semanas antes de la
votación en Italia, un grupo de investigadores europeos y
estadounidenses presentaron un documento que examinaba la función a
escala global. Colocaron miles de anuncios propios dirigidos a usuarios
voluntarios de Facebook que habían instalado el software de seguimiento
en sus computadoras.
El código recogió las
explicaciones que dio Facebook para los anuncios en el extremo receptor.
Como los propios investigadores fueron los anunciantes, pudieron
comparar los parámetros de orientación reales con los que Facebook ubicó
a los usuarios.
"En todos nuestros experimentos,
encontramos constantemente que las explicaciones de Facebook son
incompletas y a veces engañosas", escribieron (cursiva incluida) de su
investigación, que fue financiada en parte por la National Science
Foundation del Gobierno de Estados Unidos.
Sus datos apuntaban a que
Facebook proporcionaba a los usuarios los criterios de selección más
amplios ("estás en Italia"), en lugar de los más determinantes ("te
gustan los sitios web de extrema derecha"), aunque era imposible saber
cómo se construyó la complejidad de la función.
"Si este es, de hecho, el caso,
esta opción abre la puerta para que los anunciantes maliciosos ofusquen
su verdadera orientación al incluir siempre un atributo muy popular",
escribieron los grandes grupos de quienes acceden a Facebook desde
dispositivos móviles.
Matt Hural, un gerente de
producto en Facebook, dijo que es incorrecto concluir que la función
prioriza los atributos más grandes o más comunes. "Consideramos muchas
señales para decidir qué información le resultará más útil a una
persona, por lo que lo que se muestra puede variar mucho", señaló en un
comunicado.
Para los científicos, la función
"¿Por qué estoy viendo esto?" es particularmente importante para
entender cómo se usa o si se está usando mal el sistema de Facebook,
dice uno de los autores, el profesor Alan Mislove de la Universidad
Northeastern de Boston. "Es uno de los pocos mecanismos de transparencia
que tienen", dice. "Crédito donde se adeuda el crédito. Ciertamente
apreciamos que estén haciendo algo ".
Hural, de Facebook, dijo que en
las investigaciones y pruebas de la compañía las personas han dicho que
prefieren menos razones y, por ello, se entregó un anuncio para que
puedan ajustar su configuración para adaptar mejor los anuncios que ven.
"Diseñamos '¿Por qué estoy viendo esto?' Para hacer exactamente eso. Si
bien hay más trabajo por hacer, este nivel de transparencia para los
anuncios es un área en la que creemos que lideramos la industria
publicitaria", dijo.
"Queremos que las personas comprendan por qué vieron un anuncio específico de Facebook"
Facebook
creó la herramienta en 2014 para dar a los usuarios más control sobre
los tipos de anuncios que se envían a sus pantallas. Esta herramienta
está acompañada por un menú de áreas de interés de Facebook atribuido a
los usuarios. Si alguien recibe anuncios de tiendas de electrónica
porque ha estado buscando un televisor, podría eliminar "televisiones"
de su perfil de preferencias publicitarias.
La transparencia ha pagado
dividendos inesperados. El año pasado, los datos compilados por
ProPublica para un proyecto sobre la colocación de anuncios políticos
expusieron cómo las empresas excluían a los usuarios mayores de los
anuncios de empleo en Facebook, lo que aumenta la preocupación sobre la
discriminación por edad.
Para los votantes, el peligro
expuesto en las elecciones de 2016 en Estados Unidos fue que no podían
saber si (o cómo) los estaban discriminando. En los días previos a la
votación de 2016, Bloomberg Businessweek informó por primera vez que la
campaña de Trump tenía como objetivo segmentos específicos de la nación
con mensajes personalizados.
La campaña usó "publicaciones
oscuras" de Facebook -publicaciones no públicas cuya audiencia
controlaba la campaña- para apuntar a votantes negros con una animación
de la sugerencia de 1996 de Hilary Clinton de que algunos hombres negros
son "súper depredadores".
La campaña de Trump también
intentó reducir la participación negra en el vecindario Little Haiti de
Miami con mensajes específicos sobre las operaciones controvertidas de
la Fundación Clinton en Haití.
Con las elecciones legislativas
de este año, a ocho meses de distancia, Zuckerberg ha respondido con
nuevas medidas de transparencia destinadas a mostrar a los usuarios qué
está detrás de los anuncios que están viendo, yendo más allá del botón
"¿Por qué estoy viendo esto?".
Facebook está probando el nuevo
recurso en Canadá y planea tenerlo funcionando para el verano en EU. El
plan es que los usuarios puedan acceder a un archivo de todos los
anuncios políticos y quienes lo pagaron.
Sin embargo, no hay ningún
anuncio de que Facebook hará que la orientación sea más transparente, o
que la información que proporcionará a los usuarios será completamente
veraz. De hecho, un aspecto del botón con el que nos topamos los
investigadores podría, en el mejor de los casos, ser descrito como una
descarada distracción y, en el peor de los casos, una fabricación.
Los usuarios obtienen una
respuesta en dos partes de por qué están viendo un anuncio. Me encontré
con esto cuando apareció un anuncio en mi página para una escuela
privada en Miami a la que algunos amigos han asistido y matriculado a
sus hijos. Cuando hice clic en el botón, la primera mitad de la
explicación de Facebook fue acertada: el grupo de alumnos de la escuela
quería llegar a las personas cuyos amigos les gusta su página. Ese fui
yo.
Pero luego hubo una segunda mitad
que no sonaba verdadera. "Puede haber otras razones por las que está
viendo este anuncio, incluyendo que Ransom Everglades Alumni quiere
llegar a personas de 18 años o más que viven en Italia", decía.
Como sospechaba, y los
investigadores confirmaron, cuando Facebook da a los usuarios una
segunda explicación posible, simplemente proporciona la ubicación actual
del usuario, incluso si esa no era una variable solicitada por el
anunciante.
"Esto muestra que Facebook agrega
atributos potenciales a las explicaciones de anuncios que los
anunciantes nunca especificaron en su orientación, lo que los hace
engañosos", apuntaron los investigadores.
Hay posibles soluciones (mucho
tiempo) antes de que los estadounidenses vayan a las urnas a votar. Si
Facebook decide que puede darse el lujo de seguir retirando el telón de
sus anunciantes, puede decirle a los usuarios los criterios más
estrictos utilizados para dirigirse a ellos, no solo el más amplio. O
incluso podría revelar todos los motivos.
Facebook también puede eliminar
las barreras a la apertura, como la opción que me bloqueó por ser
demasiado curioso. A medida que avanzaba por los anuncios políticos
italianos, Facebook me desconectó repetidamente de la función "¿Por qué
vi esto?" por hacer clic en más de 10 anuncios en unos minutos.
Hural, el gerente de producto de
Facebook, dijo que el bloqueo es parte de "esfuerzos estándar de
protección de privacidad". Me permitió volver después de un período de
menos de media hora, convirtiéndolo en una molestia menor, aunque
simbólica.
No hay comentarios.:
Publicar un comentario