Hace un par de semanas me invitaron a conversar con alumnos de una facultad de Comunicaciones. Como cada vez que hablo con estudiantes, lo primero que hice fue preguntarles si leían periódicos. Por supuesto, la respuesta unánime fue no. Acto seguido, les pregunté cómo se informaban. Esta vez, la respuesta fue: a través de lo que mis amigos comparten en redes sociales, principalmente en Facebook. Esto no ocurre solo en Perú. Un reporte del Pew Research Center de Estados Unidos afirma que el 61% de los millennials accede a su dosis de noticias políticas a través de Facebook. Según el mismo informe, el 51% de la denominada Generación X se comporta de igual forma.
La semana pasada, el Guardian publicó documentos internos de la compañía de Mark Zuckerberg que demuestran lo que algunos sospechaban y Facebook había negado, el algoritmo que decide qué temas entran en la categoría Trending (es decir, los temas más populares) no es tan inocente y automatizado, hay decisiones editoriales tomadas por seres humanos que privilegian o censuran algunos temas y medios. Días antes de la revelación del Guardian, el blog Gizmodo publicaba la confesión de un supuesto ex colaborador de Facebook, que trabajaba como “curador de noticias” y tenía instrucciones para suprimir o insertar temas entre los trending topics. Entre los temas o medios censurados, de acuerdo al Guardian y Gizmodo, se encontraban sobre todo aquellos afines al movimiento conservador norteamericano.
Estas revelaciones, que Facebook ha buscado matizar, han hecho levantar la ceja a periodistas y políticos estadounidenses. Un senador republicano exigió a la empresa que explicara cómo se editaba el contenido que aparece en su lista trending. Algunos periodistas señalaron que, si Facebook se comporta como un medio –eligiendo qué es relevante y qué no–, debería contar con editores e, incluso, un Defensor del Lector. Dado que una creciente mayoría de la población –en casi todo el mundo– se informa a través de las redes sociales, el alboroto no ha sido menor y se encuentra, en parte, justificado. Sin embargo, el problema es que la indignación general frente a ese Big Brother llamado Facebook –al que, por cierto, todos entregamos nuestra información de forma gratuita y voluntaria– ha pasado por alto un peligro mucho mayor, cuyos responsables últimos no son curadores a sueldo ni algoritmos, sino nosotros mismos.
En el 2011, Eli Pariser acuñó el término “filter bubble” (burbuja de filtros) en el libro The Filter Bubble: What the Internet Is Hiding from You. Esa burbuja, explicaba Pariser, era resultado de la creciente personalización de los contenidos que nos muestra Internet (en nuestras búsquedas de Google o nuestro newsfeed en Facebook), que privilegia aquello que nos gusta y nos aísla de lo que nos resulta poco interesante o contrario a nuestros gustos. Tanto Facebook como Google han mejorado la experiencia de los usuarios afinando esa personalización, pero también han conseguido que rara vez nos topemos con informaciones u opiniones que cuestionan nuestros prejuicios y creencias. ¿Y qué ocurre cuando uno solo lee aquello que ratifica sus ideas? Tiende a extremar sus posiciones y a asumir que las opiniones contrarias están, en principio, siempre equivocadas.
Como explicaba el analista Ben Thompson en su blog Stratechery, el problema real, más allá del listado editado de Trending topics de Facebook, es que nuestros newsfeed –“la sección de Facebook que la gente realmente ve”– están editados por nuestros amigos, personas que por lo general piensan y opinan igual que nosotros, a quienes hemos elegido voluntariamente para ayudarnos a construir nuestra propia burbuja.
Si te interesó lo que acabas de leer, recuerda que puedes seguir nuestras últimas publicaciones por Facebook, Twitter y puedes suscribirte aquí a nuestro newsletter.