Theirtube is a Youtube filter bubble simulator that provides a look into how videos are recommended on other people’s YouTube. Users can experience how the YouTube home page would look for six different personas. Each persona simulates the viewing environment of real Youtube users who experienced being inside a recommendation bubble through recreating a Youtube account with a similar viewing history. TheirTube shows how YouTube’s recommendations can drastically shape someone’s experience on the platform and, as a result, shape their worldview.
The filter bubble is particularly pernicious when searching for political topics. That’s because undecided and inquisitive voters turn to search engines to conduct basic research on candidates and issues in the critical time when they are forming their opinions on them. If they’re getting information that is swayed to one side because of their personal filter bubbles, then this can have a significant effect on political outcomes in aggregate.
“Esta es la mejor época de la historia de la humanidad para ser un buscador del conocimiento”, dice David Weinberger. Sin embargo, advierte que, “también es la mejor época de la historia de la humanidad para ser un idiota”. En su charla sobre Conocimiento y democracia, Weinberger observa las maneras en las que Internet ha cambiado cómo accedemos al conocimiento y cómo ha transformado su estructura. El conocimiento tenía en el papel su principal medio: fijado, inmutable y desconectado de la misma manera que un libro está separado de los demás. «Ahora el conocimiento se ha convertido en una red», dice, y ha tomado las propiedades de la red: «es inclusivo, hiperconectado, suelto, nunca fijado y siempre sujeto a discusión». Estas fortalezas y debilidades llevan consigo una nueva capacidad del conocimiento para crecer hasta límites insospechados. Por otro lado, Weinberguer señala que el conocimiento se enfrenta también a retos terribles, a las “cámaras de eco” en las que personas que piensan de manera similar hablan sin enfrentarse a puntos de vista opuestos,. Estas cámaras de eco surgen, en su opinión, no sólo por las debilidades humanas, sino por la naturaleza de la conversación y la compresión de sí mismas. Esto significa que no hay soluciones fáciles a la forma en la que la Red está fracturando el discurso. Será necesaria la educación y la voluntad de escuchar las voces de los más vulnerables.
As web companies strive to tailor their services (including news and search results) to our personal tastes, there’s a dangerous unintended consequence: We get trapped in a «filter bubble» and don’t get exposed to information that could challenge or broaden our worldview. Eli Pariser argues powerfully that this will ultimately prove to be bad for us and bad for democracy.
Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google «BP,» one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill. Presumably that was based on the kinds of searches that they had done in the past. If you have Google doing that, and you have Yahoo doing that, and you have Facebook doing that, and you have all of the top sites on the Web customizing themselves to you, then your information environment starts to look very different from anyone else’s. And that’s what I’m calling the «filter bubble»: that personal ecosystem of information that’s been catered by these algorithms to who they think you are.
Una burbuja de filtros es el resultado de una búsqueda personalizada en donde el algoritmo de una página web selecciona, a través de predicciones, la información que al usuario le gustaría ver basado en información acerca del mismo (como localización, historial de búsquedas, y elementos a los que les dio clic en el pasado) y, como resultado, los usuarios son alejados de la información que no coincide con sus puntos de vista, aislándolos efectivamente en burbujas ideológicas y culturales propias del usuario.
Un ejemplo son los resultados de la búsqueda personalizada de Google y el hilo de noticias personalizadas de Facebook . El término fue acuñado por el ciberactivista Eli Pariser en su libro que tiene el mismo nombre; de acuerdo a Pariser, los usuarios son menos expuestos a puntos de vista conflictivos y son aislados intelectualmente en su propia burbuja de información. Pariser relata un ejemplo en donde el usuario hace una búsqueda en Google para «BP» y tiene como resultado noticias acerca de British Petroleum mientras que otra persona obtuvo información acerca del derrame de petróleo Deepwater Horizon y que los dos resultados de búsqueda fueron muy diferentes entre ellas.
Según Mark Zuckerberg: «Saber que una ardilla muere en tu jardín puede ser más relevante para tus intereses que saber que muere gente en África».