Identidades Algorítmicas: Reporte desde Santiago de Chile


Por Scott Wark

En los últimos años, miembros del equipo de People Like You han estado colaborando con Martín Tironi, Matías Valderrama, Denis Parra y Andre Simon de la Pontificia Universidad Católica de Chile en el proyecto llamado “Identidades Algorítmicas”. Entre el 13 y 20 de enero, Celia Lury, Sophie Day y Scott Wark visitaron Santiago para participar en un workshop de discusión sobre el proyecto y los pasos siguientes.

El proyecto Identidades Algorítmicas busca estudiar cómo las personas entienden, negocian, configuran y, a su vez, son configuradas por sistemas de recomendación algorítmica. Su premisa es que, aunque hay relevantes investigaciones sobre estos sistemas, se ha prestado poca atención a cómo se utilizan: cómo los entiende la gente, cómo se siente sobre ellos, y cómo se habitúa la gente a ellos cuando interactúan con los servicios online.

Pero también nos interesa indagar cómo los sistemas de recomendación algorítmica pueden hacerse comprensibles para la investigación social. Los principales servicios online y plataformas de redes sociales que las personas usan cotidianamente son de carácter propietario. Sus algoritmos son celosamente protegidos: podemos estudiar sus efectos en lxs usuarixs, pero no los algoritmos como tal. En el argot teórico de los medios, son verdaderas «cajas negras».

Para estudiar estos sistemas, adoptamos una aproximación de ‘hacer crítico’: creamos una app que denominamos ‘Big Sister’. Esta app emula un sistema de recomendación. Puede recoger datos textuales de usuarixs de tres fuentes: Facebook o Twitter, a través de sus APIs, o texto escrito por su usuarix. Luego la app procesa estos datos a través del servicio de IBM Watson Personality Insights. Este servicio genera un perfil del usuarix basándose en el modelo de los cinco grandes, que es ampliamente usado en los circuitos empresariales del marketing. Finalmente, se puede conectar Big Sister a una cuenta de Spotify para generar recomendaciones musicales basándose en este perfil.  

Nuestra visita a Santiago se produjo después de la fase inicial de este proyecto. A través de una convocatoria abierta, invitamos a voluntarios en Chile y el Reino Unido a utilizar Big Sister y a ser entrevistados sobre su experiencia. Utilizamos un método etnográfico conocido como «entrevistas de rastros», en el que Big Sister actúa como marco y estímulo para explorar las experiencias de los participantes con la aplicación y su relación con los sistemas de recomendación algorítmica en general. Llevamos a cabo un ensayo/primer conjunto de entrevistas -cuatro en Santiago y cinco en Londres- que constituyeron la base de nuestro workshop en Santiago.

Este taller tuvo un componente formal: una introducción y un esbozo del proyecto por Martín Tironi; presentaciones de Celia Lury y Sophie Day; y una visión general de los hallazgos iniciales por Matías Valderrama y Scott Wark. Pero también tenía un elemento discursivo: Tironi y Valderrama invitaron a una serie de participantes de instituciones académicas y organizaciones no gubernamentales a debatir el proyecto, sus fundamentos teóricos, sus conclusiones y sus posibles aplicaciones.

La presentación de Tironi esbozó los conceptos que informaron el diseño del proyecto. Su naturaleza comparativa -el hecho de que esté situado en Santiago y en las ubicaciones institucionales del proyecto People Like You, Londres y Coventry- nos permite comparar cómo las personas navegan la recomendación en distintos contextos culturales. Más importante aún, implementa un modo de investigación que se materializa a través del diseño, en este caso, en la producción de una app. A través de colaboraciones entre académicos de ciencias sociales y humanidades y científicos de la computación -en particular el programador del proyecto, Andre Simon- nos posiciona a nosotros, los investigadores, dentro del proceso de producción de una app en lugar de la posición de observadores externos de un producto.

Esta posición puede resultar incómoda. La recopilación de datos es algo problemático; al diseñar activamente una aplicación que emula un sistema de recomendación algorítmica, ya no ocupamos una posición externa como críticos. Pero también es productivo. Nuestra aplicación no está diseñada para proporcionar una ‘solución’ tecnológica a un problema en particular. Está diseñada para producir conocimiento sobre sistemas de recomendación algorítmica, para nosotros y nuestros participantes. Debido a que nuestra aplicación es un prototipo, este conocimiento es contingente e impreciso y constantemente se encuentra con la posibilidad de que la aplicación pueda fallar. También introduce la posibilidad de producir diferentes tipos de conocimiento.

Mi presentación con Valderrama esbozó algunos hallazgos preliminares de las entrevistas y los principales temas a abordar. Nuestros participantes son conscientes del papel que los sistemas de recomendación juegan en sus vidas. Saben que estos sistemas recogen datos como el precio de los servicios que reciben a su vez. Es decir, tienen una «alfabetización de datos» general, pero tienden a ser ambivalentes en cuanto a la recopilación de datos. Sin embargo, algunos participantes encontraron que el componente de perfilamiento de nuestra app es provocador o incluso «impactante». Un participante del Reino Unido no esperaba que su perfil de personalidad lo fuese a caracterizar como «introvertidx». Otro en Santiago se preguntó si su alto grado de «neurotismo» se correlacionaba con la crisis social en Chile, marcada por las continuas protestas a gran escala sobre la desigualdad y la constitución del país.

Utilizando los ‘rastros’ de su compromiso con la aplicación, estas entrevistas abrieron discusiones fascinantes sobre la relación cotidiana de lxs participantes con sus datos. En ambos lugares lxs participantes compararon las recomendaciones con técnicas de predicción más antiguas, como los horóscopos. Esperaban que las recomendaciones de sus canciones fueran poco precisas o incluso erróneas, pero el uso de la app les permitió reflexionar sobre sus datos. Empezamos a tener la sensación de que el hábito era un tema emergente clave.

Nos habituamos a las prácticas de datos, que están diseñadas para moldear nuestras acciones para capturar nuestros datos. Pero también vivimos con, incluso dentro, de los sistemas de recomendación algorítmica que informan nuestra vida cotidiana. Los habitamos. Empezamos a entender que nuestros participantes no son receptores pasivos de recomendaciones. A través del uso, se hacen una idea de cómo funcionan estos sistemas, aprendiendo a dar forma a los datos que les proporcionan para dar forma a las recomendaciones que reciben. El hábito y el habitar se entrelazan en actos ambivalentes e interrelacionados de recibir y provocar recomendaciones.

Las presentaciones de Lury y Day llevaron estas reflexiones más allá, presentando algunas especulaciones teóricas emergentes sobre el proyecto. Day estableció un paralelismo entre las técnicas científicas del análisis de redes que sustentan la recomendación y la investigación antropológica sobre el parentesco. Las recomendaciones personalizadas funcionan, de forma contraria a la intuición, estableciendo similitudes entre los diferentes usuarios: se generará una recomendación al determinar qué es lo que les gusta a otras personas a las que les gustan las mismas cosas que a ti. Este principio se conoce como ‘homofilia’. Day destacó los precursores antropológicos de este concepto, señalando cómo el profundo estudio del parentesco de esta disciplina proporciona una visión de cómo los sistemas de recomendación algorítmica nos agrupan. En los estudios de parentesco, la «heterofilia», es decir, el gusto por lo que es diferente, desempeña un papel clave en la explicación de agrupaciones particulares, pero mientras que esta característica se moviliza en los estudios de enfermedades infecciosas, por ejemplo, en lo que se denominan patrones de mezcla asistencial y disasistencial, se ha discutido menos explícitamente en los comentarios sobre los sistemas de recomendación algorítmica. Su presentación esbozó una línea de investigación clave que el pensamiento antropológico puede aportar a nuestro proyecto.

La presentación de Lury tejió reflexiones sobre el hábito junto con un análisis del género. Lury preguntó si los sistemas de recomendación están modificando la forma en que el género opera en la cultura. Los géneros clasifican los productos culturales para que puedan ser más fácil de encontrar y consumir. Pueden ser categorías grandes e inclusivas, como ‘rap’ o ‘pop’; también pueden ser muy precisas como, por ejemplo, el denominado ‘vaporwave’. Cuando plataformas como Spotify utilizan procesos automatizados, como el Machine Learning, para afinar los grandes géneros de moda y producir cientos o miles de microgéneros que surgen a medida que «nos gustan» los productos culturales, ¿necesitamos cambiar lo que entendemos por «género»? Además, ¿cómo influye esto en la forma en que habitamos los sistemas de recomendación? La presentación de Lury esbozó otra línea de investigación clave que seguiremos mientras nuestra investigación continúa.

Para mí, nuestra visita a Santiago confirmó que el proyecto «Identidades Algorítmicas» está produciendo nuevos conocimientos sobre la relación de lxs usuarixs con los sistemas de recomendación algorítmica. Estos sistemas son a menudo interpretados como opacos e inaccesibles. Pero, aunque no tengamos acceso a los algoritmos en sí, podemos entender cómo los usuarios los moldean tal como son moldeados por ellos. El contenido ‘personalizado’ que proporcionan emerge a través de ciertos hábitos de uso y puede, a su vez, proporcionar un lugar cultural de habitación para sus usuarixs.

Continuaremos explorando estos temas a medida que el proyecto se desarrolle. Esperamos que nuestro proyecto revele más sobre cómo habitamos las culturas de recomendación, explorando las relaciones entre los servicios de personalización y las personas que los utilizan. En lugar de simplemente existir en paralelo unos con otros, queremos pensar en cómo emergen juntos en paralaje.