Contra el “filtro burbuja”, contra aquello que creemos ser

Saber que una ardilla se muere delante de tu casa en este momento puede ser más relevante para tus intereses que el hecho de que la gente se muera en África
Mark Zuckerberg, fundador de Facebook

Hoy Netflix tiene la capacidad de “predecir”, con un margen de media estrella, si una serie o una película te va a gustar. Lo mismo Youtube con un video y Spotify con un artista o canción. ¿Pero cómo inició este fenómeno de personalización? ¿Y cómo beneficia o pervierte la forma en que accedemos o difundimos información? Hablemos del «filtro burbuja».

La historia inicia el 4 de diciembre de 2009, según narra Eli Pariser en El filtro burbuja [Taurus, 2018]. Ese día apareció una entrada en el blog corporativo de Google. Fue escrita de un modo tan anodino que parecería que el objetivo era llamar lo menos posible la atención, si bien en los hechos constituyó el “mayor cambio que se había producido en los buscadores”, y al mismo tiempo el origen de cómo es que Netflix, Youtube y Facebook nos “conocen” tan bien.

Aquel día Google comenzó a utilizar 57 indicadores para intentar saber quiénes éramos a partir de nuestras búsquedas y las páginas que visitábamos, y con esa información personalizar los resultados de nuestras búsquedas, mostrándonos aquellas a las que con mayor probabilidad daríamos clic.

El resultado es que hoy tú puedes buscar en Google “feminicidio” y los resultados que te aparecen pueden ser totalmente distintos a los de otra persona que busque el mismo término.

Quizás tú eres periodista o activista y los resultados de tu búsqueda te parecen útiles, en la medida en que son cercanos a las visiones o enfoques que te son familiares. Es decir, ¿para qué querrías ver resultados “inútiles”?, ¿qué tiene de malo que los resultados estén filtrados?

El problema del “filtro burbuja”

Bueno, el problema es que los algoritmos “están empezando a dirigir nuestra vida”, si no es que ya lo hacen en buena medida. Pariser alerta que la nueva generación de filtros en Internet “son máquinas de predicción cuyo objetivo es crear y perfeccionar constantemente una teoría acerca de quién eres, lo que harás y lo que desearás a continuación”.

Eso, en esencia, altera la forma en que encontramos información o accedemos a nuevas ideas, perspectivas o enfoques.

De nuevo: si eres una persona que reivindica derechos humanos o empatiza con visiones feministas, la “burbuja” que se genere en torno a ti podría no parecerte del todo nociva; al final, que te recomienden películas, música o noticias que refuerzan aquello en lo que crees no genera fricción, puesto que aquello en lo que crees sería “lo que está bien”.


Filtro burbuja: la nueva generación de filtros en Internet «son máquinas de predicción cuyo objetivo es crear y perfeccionar constantemente una teoría acerca de quién eres, lo que harás y lo que desearás a continuación»


El problema real es que la percepción de “lo que está bien” es culturalmente variable, y mientras que a ti Facebook te muestra contenidos de sensibilización acerca de la violencia machista y la discriminación, a millones de personas les muestran contenidos machistas y que reproducen o normalizan la discriminación.

Esas otras personas jamás verán “la otra cara” que tú ves. Porque los algoritmos han decidido que sencillamente no es información que les interesa, en la medida que no se asocian con lo que ellas creen ser.

El “filtro burbuja” contra la democracia

La democracia, en esencia, se construye a partir del disenso. No estar de acuerdo es una forma de contrastar visiones para enriquecer el debate público. El “filtro burbuja” reduce al mínimo la posibilidad de ese disenso. Es poco probable estar en desacuerdo con información que ha sido seleccionada para reforzar aquello de lo que ya estamos convencidos.

Al contrario, el “filtro burbuja” reduce la tolerancia al disenso y refuerza la percepción de que lo que ya creemos lo cree también el mundo entero, al menos si consideramos que el mundo entero es tu feed en Facebook o Twitter.

Así es posible entender que personas que no manifestarían públicamente que tienen prejuicios contra las personas migrantes, al ver que su feed tiene noticias, opiniones, memes, videos que coinciden con su visión de miedo o recelo, pueden ser más abiertas a expresar públicamente su desprecio, y hasta salir a votar por un presidente que promete un muro para impedir que lleguen a su país.

Después de todo, el feed de Facebook es interpretado como “Esta es la información de lo que está ocurriendo en el mundo”, no como “Esta es la información que seleccionamos para ti sobre aquello que está ocurriendo en el mundo; es una visión sesgada, ajustada a tus gustos y preferencias”.

¿Y es posible romper el “filtro burbuja”?

No, aunque el proceso es complejo y estructural, comenzando por interiorizar que la corporativización de Internet es lo contrario de un espacio público, y que cada plataforma aprovecha sus algoritmos para obtener información de nosotros que convierte en dinero para ellas.

Y en segundo lugar cuestionando todo aquello que reduzca la fricción para encontrar “cosas que nos gustan”, diciendo “no” cada que veamos la frase “Esto podría gustarte…”. Porque, citando a Espartaco, “cada que alguien dice no, el imperio tiembla”

Comparte:

Recibe nuestro boletín mensual, ¡suscríbete!