La burbuja de filtros y sus implicaciones sociales

La Burbuja de Filtros
La Burbuja de Filtros

Hace unos días comencé a leer El filtro burbuja: Cómo la Red decide lo que leemos y lo que pensamos, de Eli Pariser. Me decidí por este libro como mi siguiente lectura por su relación con el campo profesional al que me dedico, el marketing en buscadores. Sin embargo, una vez comenzada su lectura, que aún no he acabado, he podido comprobar que el tema de la burbuja de filtros es algo que va más allá del marketing online.

¿Qué es el filtro burbuja?

El filtro burbuja trata sobre la personalización en Internet. Intentaré explicar esto de una forma rápida y sencilla.

La personalización en Internet consiste en que cuando accedemos a los diferentes contenidos en la Red, estos varían dependiendo de la persona que los consume. Así, si por ejemplo realizamos una búsqueda en Google, la página de resultados que nos ofrece el buscador variará significativamente en función de quien haya realizado la búsqueda. Mis resultados podrán ser considerablemente distintos respecto a los obtenidos por alguien que, por ejemplo, viva en Madrid o Barcelona, incluso si realizamos la búsqueda al mismo tiempo. Y no es solo una cuestión geográfica, sino que son muchos los factores los que ayudan a dibujar esta personalización, los filtros a los que se refiere el autor.

Estos filtros ayudan, entre otras cosas, a que las empresas puedan orientar su publicidad de un modo mucho más eficiente, de modo que sean aquellos usuarios que realmente puedan estar interesados por un producto o servicio quienes finalmente sean los que reciben los impactos de dicha publicidad. Pero, sin embargo, el funcionamiento de estos filtros también influyen en el tipo de información que recibimos, lo cual crea un sesgo que, desde un punto de vista social, puede llevar aparejados muchos problemas.

La burbuja de filtros personal

Los algortimos responsables de esta personalización que estamos comentando también operan en la selección de contenidos que consumimos. Y solo estamos en los albores de una auténtica revolución.

De este modo, mediante la recopilación de datos sobre nosotros -que alegre y gratuitamente ponemos a su disposición-, los algoritmos son capaces de saber con exactitud qué tipo de noticias son las que más nos interesan y, por tanto, cuáles de ellas son las que seleccionarán para mostrarnos.

Esto, como decíamos, da lugar a un sesgo informativo. Si solo vamos a poder leer sobre lo que nos interesa, estamos perdiendo la oportunidad de contrastar nuestra posición en diversos temas con opiniones que difieran de la nuestra. Conforme nuestra ‘página de inicio’ se va llenando de resultados personalizados, no hacemos más que alimentar una burbuja que crece y crece gracias a esos contenidos personalizados, pero que nos aísla del resto del mundo. Comenzamos a vivir en un espacio digital que no es más que un compartimento impermeable a lo diferente donde, como bien dice el autor del libro, ‘podemos quedarnos atrapados en una versión estática de nosotros mismos, en un bucle infinito sobre nosotros mismos’.

En la burbuja de filtros no hay lugar para la casualidad y el aprendizaje, ya que ‘con frecuencia la creatividad se produce gracias a la colisión de ideas procedentes de diferentes disciplinas y culturas’, algo que con esta impermeabilidad de la que hablamos queda aniquilada y ‘puede afectar a nuestra capacidad para elegir cómo queremos vivir’.

Y no obstante, no es este el mayor de los problemas. La personalización no solo afecta al tipo de contenidos que consumimos, sino que influye de una manera muy importante en aquellos ‘parámetros económicos que determinan qué historias se producen’. Algo que, en mi opinión, es terrible.

¿Podemos imaginarnos un mundo en el que haya parcelas de la realidad que jamás sean cubiertas periodísticamente y, por tanto, nunca sepamos de ellas? Seguramente podamos decir que esto ya está ocurriendo pero, de algún modo, aún podemos recibir algunos ecos de esas realidades lejanas. Que los filtros puedan llegar a determinar de una manera tan explícita las noticias que se crean no es más que una forma de adulterar el mundo en el que vivimos, un preocupante determinismo que puede dar lugar a un mundo en el que las personas dejamos de ser personas de una vez por todas para no ser más que consumidores, clientes e incluso productos. Y de momento tan solo estamos hablando de Internet tal y como la conocemos hasta ahora pero, sin duda, con la llegada del Internet de las Cosas (que ya está aquí, no lo olvidemos), el problema puede ampliarse a todas las esferas de nuestra vida.

Esto se produce porque los algoritmos no poseen el componente ético que en su día tuvieron los editores responsables de los medios de comunicación. Tal vez esa ética periodística no fuese perfecta, pero era necesaria.

Una parte del problema

No hemos de obviar que una parte del problema somos nosotros mismos desde el momento en que cedemos constantemente a empresas de las que nada conocemos información personal que no revelaríamos ni a nuestros conocidos más próximos. Los habituales ‘checks’ de aceptación de las condiciones legales de las webs que visitamos así como las cookies que dichas webs instalan en nuestros dispositivos, son hábiles instrumentos para recabar información de alto valor con la que más tarde otras empresas mercadean. Y es entonces cuando volvemos a encontrarnos con la problemática de la ética digital.

Coda final: viviendo en la burbuja de filtros

Debemos ser conscientes de todas las implicaciones que tiene el Internet actual. El uso de la información personal que cedemos a empresas a cambio de servicios o productos gratuitos es parte de la savia con la que se alimenta la personalización. En nuestra mano está hacer un uso responsable de servicios digitales y de hasta dónde estamos dispuestos a ceder parte de nuestra parcela de privacidad. No solo tiene implicaciones para nosotros y para nuestra personal burbuja de filtros, sino para la configuración y percepción del mundo en que vivimos.

Si no pagas por algo, no eres el cliente, sino el producto.
Andrew Lewis

2 Comentarios

  1. Muy importante lo que destacas. Pero, de algún modo, dado que aprenden de nosotros también se contagian de “nuestros principios éticos” o de nuestros “usos (siempre éticos)”

  2. Me parece interesante la idea general de “los algoritmos no poseen componente ético”. Creo que es verdad en este momento, pero no tiene por qué serlo en el futuro. A lo mejor la conclusión lógica es que los algoritmos deben estar sujetos a examen ético (puesto que se programan de partida intencionalmente, y aprenden cómo les mandan aprender, maximizando lo que se les manda maximizar), de la misma manera que la actuaciones de las personas. Quiero decir que el algoritmo puede no tener las limitaciones cognitivas de las personas, pero sí pueden exigírseles las mismas limitaciones éticas.

Dejar respuesta

Please enter your comment!
Please enter your name here