La opción predeterminada: Las políticas del diseño en la Ciudad Inteligente


Por Matías Valderrama Barragán

Normalmente cuando se habla de Smart Cities en la literatura, se pone de manifiesto la posible optimización de recursos y procesos mediante la creciente ubicuidad y alcance que están tomando los múltiples dispositivos digitales. Mientras más pequeños, miniaturizados y baratos se vuelven los chips de computadoras y circuitos electrónicos, más fácil se ha vuelto conectar y hacer “sensible” diferentes objetos entre sí (Featherstone, 2009, p. 2). Si antes las computadoras eran gigantes y pesados armatostes que se tenían que ubicar y fijar en un delimitado espacio, hoy al reducirse a su mínima expresión –proceso que continuará hasta quien sabe que corpúsculo digital- irónicamente los medios computacionales invaden toda la ciudad.

En estos tiempos en que los medios digitales permean nuestros cuerpos, vestimentas, sentidos, culturas y ciudades, es común preguntarnos por los “efectos” que tendrán ciertas tecnologías sobre las personas y muchas de estas preguntas terminan en un claro determinismo y “solucionismo” tecnológico. Variados autores se han encargado de criticar la noción de un público pasivo –ciudadanos pasivos en el caso de la Smart City–, que se verían afectados de manera simple y directa por la tecnología, sin ofrecer ninguna resistencia aparente. Evidentemente que se debe evitar caer en esos reduccionismos, no obstante, se vuelve crucial analizar qué modulaciones y controles pueden llegar a posibilitar las tecnologías Smart en la ciudad. Pues como Gilles Deleuze ya hacía ver sobre este punto escribía:

Tipos de máquinas son fácilmente relacionadas para cada tipo de sociedad –no porque las maquinas estén determinándolas, sino porque ellas expresan las formas sociales capaces de poder generarlas y usarlas. (Deleuze, 1992, p. 6)

Comúnmente las críticas al proyecto Smart City se centran en la falta de proyección de las autoridades, el bajo nivel de inversión en infraestructura de este tipo de los privados o a los usos errados de estas tecnologías que les dan los usuarios, que no llegan a cumplir las expectativas, que se les da un uso equivocado o que no se usan. Sin duda que habrá mucho de eso, pero igualmente relevante de examinar son los diseños de estas tecnologías Smart  lo fuertemente político que sucede en ese proceso social que genera estas tecnologías. No debemos pensar los dispositivos Smart como entes neutrales o meros intermediarios pasivos, sino como artefactos que presentan una injerencia a la hora de mediar, visibilizar, traducir y enactar lo social (Latour, 2005; Marres, 2015).

En la medida que se  hacen más extensivo los dispositivos digitales y automatizados en nuestros entornos urbanos, más importante se vuelve examinar que modulaciones se buscan en  el diseño de estos artefactos, a la hora de definir qué almacenar, registrar o mostrar, qué destacar o permitir. Todas esas decisiones por más mínimas que parezcan, son sumamente políticas y pueden orientar los artefactos a una forma bien particular de ciudadano y de hacer ciudad, cuestión que se pone en segundo plano cuando se calculan los “efectos” macro y la rentabilidad social. Se asume que las tecnologías, independiente de quien las genere, desarrolle y promueva y bajo qué intereses y propósitos, tienen un efecto puro –más o menos eficiente, más o menos cuantificable- inherente en el dispositivo mismo.  Elaborar una Smart Grid, articular parquímetros inteligentes, armar una red de bicicletas arrendadas con la tarjeta, lograran agilizar procesos en cierta cantidad de tiempo, disminuir ciertos recursos y aumentar el consumo de ciertos productos, son todos procesos cuidadosamente diseñados, por lo mismo, cargados de definiciones, intereses y valores que no pueden dejarse en manos de técnicos solamente.

A continuación revisaré tres casos  aparentemente inconexos entre sí, pero que dan cuenta de la importancia política del diseño y nos pueden entregar varias luces sobre las posibles modulaciones en nuestras ciudades.

Adicción y ganancias mediante el diseño

Natasha Dow Schüll en su libro Addiction by Design revisa la arquitectura, diseño y programación detrás de los casinos en las Vegas. En la primera parte del libro da cuenta cómo el diseño de los espacios destinados a las máquinas de azar está pensado de antemano, por ejemplo, estableciendo techos bajos, ambientes cerrados, medio oscuros y con pasillos enredados, cosa de que las personas al entrar en esta suerte de laberinto se pierdan en “La Zona” y solo se centren en jugar en las máquinas. El propio diseño de estas máquinas sigue la misma lógica por  sus formas curvas y ergonómicas, los sonidos que imitan el de las monedas, las luces tenues que no son ni muy altas para cansar a los jugadores ni muy bajas para que no se queden dormidos, etc. todas estas características están orientadas a cumplir el deseo vicioso de los jugadores por armar su propio “capullo” dentro del casino entre el jugador y su máquina. Agregándole funciones como pedir comida desde la misma maquina o conectar la tarjeta de crédito, se extiende el tiempo que el usuario puede permanecer en la maquina jugando. El pasar de usar monedas y dinero físico, a créditos y tarjetas del casino como forma de apostar en estas máquinas no sólo evita que los jugadores se paren a buscar dinero en los cajeros, sino que además haría perder la noción del valor del dinero. La propia programación e ingeniería detrás del cálculo de las chances de ganar y perder, al agregar una rueda virtual a la máquina, está pensado para hacer creer en la ilusión de que hay más probabilidades de ganar de las que en realidad son. En suma, todo el diseño de los espacios, máquinas y procesadores están sumamente pensados para crear experiencias y ambientes que alimentan el vicio de los jugadores, incluso desde antes que estos lleguen al casino.  Son factores que modulan y afectan el jugar, que están orientados a, por un lado, satisfacer las necesidades de los usuarios, pero por otro, de manera asimétrica, sacar la máxima ganancia para las grandes corporaciones de los casinos: “Diseñar estrategias para lograr la continua productividad empareja el deseo de los apostadores de prolongar el aislamiento en la Zona; y viceversa,  los apostadores se convierten en colaboradores en la optimización de las ganancias de la industria” (Dow, 2012, p. 73).

1

 

Regulación legal mediante el diseño

Otro caso notable son los intermediarios digitales contemporáneos como Youtube, en donde los usuarios crean sus propios contenidos de manera autónoma y los suben a la web. Los espacios que sirven de vitrina a estos contenidos, son comúnmente tildadas como “plataformas” supuestamente abiertas, colaborativas y neutrales. Tarleton Gillespie (2007, 2010, 2015) las ha criticado de manera perspicaz, planteando que estas intervienen y afectan al usuario de manera importante.

Por alguna razón, sigue siendo tentador el estudiar la dinámica social en las plataformas sin tener en cuenta la plataforma de sí misma, tratándola como simplemente allí, irrelevante o diseñada de la única forma imaginable. Pero […] las plataformas, en su diseño técnico, los imperativos económicos, marcos regulatorios, y el carácter público, tienen distintas consecuencias en lo que son capaces de hacer los usuarios, y en lo que realmente terminan haciendo. (Gillespie, 2015, p.1)

Por ejemplo toda la creación de contenidos de usuarios en Youtube, aunque no sea tan evidente, esta permeada por los marcos que de manera implícita establece Youtube. Estos marcos se sustentarían en cuestiones legales y de copyrights que prohibirían el uso de música con derechos de autor en los videos caseros o la presentación de cinemáticas de videojuegos en los reviews de los gamers sin el permiso de los estudios y diseñadores. Incluso al momento de subir el contenido a Youtube, antes de publicarlo, se activan los algoritmos que revisan que el contenido subido no tenga elementos con derechos de autor y de hallarlo le envía advertencias al usuario. Todo “Youtuber” debe estar atento a evitar las advertencias y por sobre todo los “Strikes”, que ocurren cuando el propietario de un contenido hace un requerimiento legal acusando plagio o uso ilegal de su contenido a Youtube. Al recibir strikes se pierde acceso a ciertas funcionalidades de Youtube y al tercero, simulando el baseball, de manera automática el canal es bajado y la cuenta es terminada, sin posibilidad de crear otra nueva. Estos marcos legales que habilitan ciertos modos de creación e inhiben otros, emergen sobre todo cuando se busca hacer rentable y monetarizar esos contenidos.  Por lo que  Youtube, según Gillespie, se orientaría principalmente al beneficio de los holdings mediáticos al satisfacer las normas legales y restricciones de derechos de autor que constantemente aquejan a Google en diferentes ámbitos. De esta manera, por medio de la programación de algoritmos e interfaces, de manera muy política, asimétrica e interesada, se controla y modula a esos usuarios incluso antes de si quiera grabar algún contenido.

2

En otro lugar, Gillespie (2007) plantea que la regulación legal del uso de la tecnología mediante el mandato de las leyes ha perdido efectividad, pasando a ser más práctico e invisible el constreñimiento del uso de las tecnologías mediante la regulación del propio diseño de las tecnologías, en sus interfaces, prácticas y bloqueos automatizados. De este modo, los usuarios son activamente frustrados mediante la capacidad de la plataforma de delimitar no solo lo que puede hacer técnicamente el usuario dentro de la plataforma, sino que a su vez y más importante aún, al especificar su propia auto-percepción de sus capacidades en ella. Así se llegan a afirmaciones como: “No puedo poner esta canción aunque me encante en el video, porque tendré un strike o peor aún la plataforma no me dejará subirlo siquiera”. El caso de los DVD es aún más ejemplificador, pues si antes las caseteras venían diseñadas con la función de grabar, dando pie a  crear copias ilegales de casetes, con las videograbadoras pero sobre todo el DVD esa opción fue sacada de los dispositivos. El objetivo así es que no exista agencia de la cual los usuarios se sientan frustrados  por no poder ejercerla. No es que se use incorrectamente el dispositivo y luego se castigue, la manera actual es orientar el diseño para que la persona no pueda si quiera usarla de un modo incorrecto o ajeno a los intereses de las industrias mediáticas. Como escribe Gillespie:

Los proveedores de contenido y los legisladores han comenzado a implementar cambios significativos en la forma en que los derechos de autor se aplican en la cultura digital. El centro de estos cambios es un giro fundamental en la estrategia, desde la regulación del uso de la tecnología a través de la ley, a reglamentar el diseño de la tecnología con el fin de limitar y constreñir su uso (Gillespie, 2007, p.6)

Defensa de la Privacidad mediante el Diseño

Muy conectado con el ejemplo anterior, la iniciativa Privacy by Design de la comisionada de información y Privacidad, Ann Cavoukian, alienta a que los sistemas digitales respeten la privacidad de la información personal de sus usuarios desde los procesos de diseño de estos sistemas. Siguiendo el usuario-centrismo del diseño de los casinos y las plataformas de la Web 2.0., Cavoukian en sus 7 principios del Privacy by Design plantea que “hay que mantener al usuario en el centro de las prioridades” en cualquier modelo de negocio o sistema tecnológico que recopile información sensible y personal. Ser preventivos más que correctivos, no se debe esperar a que se vulnere la privacidad de los usuarios para actuar, al contrario, se debe evitar que ocurran estas vulneraciones de manera “predeterminada”:

¡Lo predeterminado es lo que manda! La Privacidad por Diseño busca entregar el máximo grado de privacidad asegurándose de que los datos personales estén protegidos automáticamente en cualquier sistema de IT dado o en cualquier práctica de negocios. Si una la persona no toma una acción, aún así la privacidad se mantiene intacta. No se requiere acción alguna de parte de la persona para proteger la privacidad – está interconstruida en el sistema, como una configuración predeterminada (Cavoukian, 2009).

Para ello, continua el decálogo, el respeto a la privacidad debe estar “incrustado” en el diseño y arquitectura de los dispositivos y sistemas digitales. Debe ser parte integral del código y no un mero suplemento a posteriori. Por ejemplo, en los software de vigilancia usados en las cámaras de seguridad deberían venir de manera pre-configurada que los rostros que capture la analítica de la cámara sean anonimizados. Y esta orientación respetuosa de la información debería estar incrustada en los sistemas inclusive antes de que el primer elemento de información haya sido recolectado y debe continuar a través de todo el ciclo de vida de estos datos.

El peligro de configurar lo Smart como la manera “predeterminada” de hacer ciudad

Estos tres casos nos ilustran que la tecnología es siempre generada y construida con ciertas intenciones e ideas de por medio que pueden ser virtuosas como viciosas dependiendo del caso. El diseño orientado al usuario no necesariamente implica algo positivo per se, pues genera nuevas formas de control más amigables y menos agresivas pero que tienen igual o más efectividad a la hora de modular y afectar los comportamientos de los usuarios. Los procesos de diseño importan, no solo porque pueden explicar los problemas y desajustes del uso posterior, sino porque en dichos procesos se imbrican los objetos en relaciones de poder, intereses y orientaciones como a la ganancia o a la conservación de ciertos derechos que benefician a ciertos grupos y afectan a otros, como a las compañías de casinos, disqueras o a los ciudadanos grabados.

La concepción de Smart Cities está aún en pañales o en fase beta en las ciudades de Chile. Sigue siendo parte de los departamentos y grupos de innovación social más que ser modelos de negocios probados y rentables. Sin embargo, al difundirse e institucionalizarse el concepto cada vez más, al generarse alianzas entre el ámbito público y privado, al inyectar recursos para proyectos de este estilo por el Estado, etc. ocurrirán problemas y momentos de inestabilidad. Y es importante que en dichas instancias, no se caiga en una queja hacia el usuario dumb que no supo usar la tecnología smart, sino también se debe hacer público los poderes que presionaron y dirigieron el diseño de los sistemas y dispositivos digitales hacia una orientación bien particular y no otra. Orientación que puede establecer como “predeterminado” ciertas acciones y marcos legales, políticos y económicos que alienten las ganancias de sus propietarios por sobre los intereses de ciudadanos concernidos.

De esta manera, la cuestión no se agota con involucrar a los usuarios en los procesos de implementación y funcionamiento de estas tecnologías, sino que se vuelve clave y sumamente político ese momento anterior, por lo que es importante ciudadanizar y abrir los procesos de diseño  de estas tecnologías si se quieren precisamente aplicar a la ciudad. Fomentar no solo la protección a la privacidad sino también otros derechos, normas legales y valores como la participación política, las leyes de tránsito, el cuidado del medioambiente, un uso responsable de la energía, etc. son cuestiones éticas que deben ser discutidas ciudadanamente a las cuales se podría aspirar en los procesos de diseño y prototipado abierto de las tecnologías urbanas.

3

Es crucial preguntarse entonces no sólo por cómo satisfacer de manera eficiente las necesidades urbanas de los ciudadanos, sino también qué tipo de ciudadanos y qué tipos de comportamientos estaríamos potenciando de manera implícita al diseñar la tecnología de un modo y no otro. Y más aún, no dejarse de hacer la pregunta por a quienes estaríamos beneficiando y/o lastimando al “predeterminar” un modelo de hacer ciudad mediante esta tecnología.

Ahora bien, es evidente que los usuarios de Youtube, así como de otras tecnologías, se van adaptando de diversas maneras y se resisten a las políticas de copyright en Internet, armando triquiñuelas para igual saltarse estas regulaciones. Como escriben Jenkins, Ford y Green al respecto, no sin exagerar a ratos la supuesta agencia de los usuarios de las plataformas 2.0.:

Tecnologías nunca pueden ser diseñadas para controlar absolutamente como el material se despliega dentro de un contexto social y cultural determinado. De hecho, los usos populares y de nichos de tecnología siempre se desvían muy lejos de todo lo previsto por el diseñador (Jenkins et al. 2013, p. 38)

Las tecnologías ciertamente no predeterminan unilinealmente a las personas a actuar de ciertas maneras ni claramente lo predeterminado «manda». Pero las configuraciones preestablecidas de las tecnologías  posibilitan ciertas formas sociales de control cada vez más sofisticadas. Esa es la gracia de la modulación a la Deleuze, que nunca es total, estática y visible, controla y perpetúa los flujos de movimiento en una cierta orientación más que interrumpirlos, disciplinarlos y cortarlos de frentón.

Al tecnologizar cada vez más la ciudad, al hacerla más sintiente e “interactiva”, podríamos estar optimizando ciertos procesos, evitando los tacos, gastando menos recursos, facilitando la movilización de los ciudadanos, pero se vuelve crucial relevar qué se quiere optimizar, a quienes les beneficia el ahorro de recursos, quienes registran, almacenan y procesan la información de los ciudadanos, qué posibilidad tienen los  ciudadanos de elegir otras formas, etc. Hay una cuestión política detrás de la configuración de los dispositivos, sensores y cosas inteligentes que debe ser constantemente problematizada, de lo contrario se puede generar una manera “predeterminada”  de hacer ciudad orientada por los propietarios de esas tecnologías y no por todos los ciudadanos.

Referencias

Cavoukian, A. (2009). 7 Fundational Principles. Recuperado el 28 de Noviembre de https://www.privacybydesign.ca/index.php/about-pbd/7-foundational-principles/

Deleuze, G. (1992). Postscript on the Societies of Control. October 59, 3-7.

Schüll, N. D. (2012). Addiction by Design. Machine Gambling in Las Vegas. Princeton: Princeton University Press

Gillespie, Tarleton (2007). Wired Shut. Copyright and the shape of digital culture. Cambridge, MA: MIT Press.

Gillespie, Tarleton (2010). The politics of ‘platforms’. New media & Society, 12(3), 347–364

Gillespie, Tarleton (2015). Platforms Intervene. Social Media + Society, SI: Manifesto, pp. 1-2.

Jenkins, H. Ford, S. y Green, J. (2013). Spreadable Media. Creating value and meaning in a networked culture. New York: NYU Press.

Latour, B. (2005a). Reensamblar lo social. Una introducción a la teoría del actor-red. Buenos Aires: Manantial.

Marres, N. (2015).  Why Map Issues? On Controversy Analysis as a Digital Method. Science, Technology, & Human Values, 1-32.