Resulta cuanto menos curioso que, precisamente después de un período de profundización en los protocolos con el subsecuente nacimiento de los estudios del software, comenzase el desarrollo del estudio de la interfaz. Como si irrumpiese de repente aquella realidad de las tecnologías más presente en la interacción cotidiana, que sin embargo había pasado desapercibida para la mayoría de pensadores de los medios.
Hasta entonces los únicos interesados en la interfaz habían sido aquellos mismos que las habían estado desarrollando, los productores de hardware y software que buscaban una conexión directa entre las interacciones del usuario y la configuración técnica de sus dispositivos. La discusión sobre la interfaz era únicamente un giro continuo en torno a los ejes de la experiencia –de usuario– y la usabilidad –del dispositivo– que, en su complementariedad, predefinían el diseño. No es extraño por tanto que el primer best-seller sobre el diseño de interfaces, publicado por Steve Krug en el año 2000, se llamase ‘No me hagas pensar’ –la primera norma de Krug sobre usabilidad[1]–, y estuviese subtitulado como ‘una aproximación a la usabilidad en la web’. Una explicitación de la relación entre ambos polos: la experiencia de usuario limitada a interacciones evidenciadas, contrapuesto a aquello que “requiere pensar”, pues una de las máximas del texto es que “no averiguamos el funcionamiento de las cosas, nos las arreglamos.”[2]
Así, aunque la usabilidad es relegada a una segunda posición en el título del texto, en realidad, es la posición única desde la que se define el diseño de interfaces. Una interacción y experiencia cada vez más presente en la vida de los usuarios construida unilateralmente desde la posición de dominio hegemónico tecnológico. Un procesamiento de la cotidianidad digital que no sólo relega de presente al usuario a una posición de dependencia, exterioridad y vulnerabilidad sino que, además, se constituye como una distancia siempre en aumento que pospone su alfabetización y empoderamiento mientras la técnica subyacente se complejiza y blinda tras cada renovación tecnológica.
***
El estudioso de los medios, artista y diseñador Mushon Zer-Aviv (1976- ) define la interfaz como “el punto de interconexión entre dos sistemas independientes”, una descripción que aun pareciendo mínima y poco concreta, vincula su papel intermediario con la distribución de poder; pues tal y como continúa advirtiendo, “si las partes que interactúan a través de la interfaz deben ser dos sistemas independientes, lo lógico sería que la interfaz en sí mantenga el equilibrio y no favorezca un sistema sobre el otro.”[3]
Sin embargo, tal y como hemos adelantado, la interfaz siempre ha estado desequilibrada hacia el lado del desarrollador de software, plataformas web y/o dispositivos tecnológicos; el usuario, posicionado en el otro extremo como segundo de los sistemas independientes, no puede más que aquello que le es permitido/prediseñado. Su interacción limitada a lo que se muestra en una superficie fragmentada y filtrada que, actuando como una barrera entre el sistema-computacional y el sistema-usuario, distrae a éste último al ‘arrojarle sin resistencia a la tarea productiva’ tal y como advirtió el colectivo Critical Art Ensemble en 1994[4].
***
La teoría de la remediación de Jay David Bolter y Richard Grusin[5], apunta a la interfaz gráfica de usuario [GUI] de los sistemas operativos como medio en el que convergen la hipermediación –la multiplicidad de mediaciones– y la inmediación –su ausencia– a través de una relación mimética que, aparentemente, elimina la mediación. En este caso, la eliminación del papel intermediario de la interfaz se produce a través de la construcción de un espacio de discontinuidades controladas aparentemente continuas, facilitando la predistigitación por medio de la automatización –y su velocidad–.
Del mismo modo en que la pintura renacentista intentaba eliminar los rastros de la pincelada, siendo posteriormente superado tecnológicamente por la automatización mecánica de la cámara fotográfica –y su velocidad–, la interfaz automatiza la ejecución del código de programación que se esconde tras cada interacción, tratando de eliminar cualquier traza de su elaboración –inevitablemente– humana. Así, tras cada clic que el usuario realiza para interactuar con la interfaz, ejecuta automáticamente un bloque de código predefinido que, como una secuencia de órdenes, conduce su acción hacia un resultado para devolverle de forma casi instantánea el control; el proceso mediante el cual se ejecuta su logicidad repudiando su agencia.
***
“La libertad que experimentamos se deriva de estos controles, de nuestras vulnerabilidades, del hecho de que no controlamos del todo nuestras propias acciones”[6]
Son estas acciones preprogramadas que se ejecutan automáticamente bajo la interfaz, siendo desconocidas para el usuario, las que constituyen el control como libertad. Una libertad individual que es el resultado de una usabilidad masificada, pues tal y como analiza Geert Lovink, “con la población de internet en aumento, lo que tiene que diseñar es algo que funcione para 50 millones de personas. Con el fin de alcanzar este nivel, los diseñadores tienen que convertirse en proveedores neutrales de ‘personalización masiva’ para ‘usuarios’.”[7]
De este modo, la apertura con que se caracteriza la red no es más que la apariencia de un horizonte infinito desde la planicie de la interfaz, pero sin posibilidad aparente de profundizar ni ascender; limitación aplastante –literalmente– y absolutizadora de un espacio que es, por definición, una red multidimensional y multidireccional, como una suerte de convergencia espaciotemporal. Sin embargo estas conductas posibles están relativamente abiertas –siendo este margen de apertura también predefinido–, permitiendo así “la insinuación del usuario en los algoritmos de la vida cotidiana”[8] –como diría Critical Art Ensemble–. Una apertura que es la que permite la ‘personalización’ de la interfaz por parte del usuario, pero ‘masiva’ en tanto que esa estructura discontinua de cierres y aberturas es la misma para 50 millones de personas.
Así, por ejemplo, la evolución del gigante Google es una clara explicitación de ello: primero siendo únicamente un motor de búsqueda textual –desde 1998– e implementando los anuncios por palabras en el año 2000, y poco después añadiendo la búsqueda de imágenes –2001–. Continuará en 2006, tras la compra de YouTube, sumando el vídeo en su plataforma, para en el año 2007 lanzar su Búsqueda Universal [Universal Search] que indexa en un solo motor texto, imagen y vídeo. Un procesamiento que evoluciona desde el texto a las imágenes, hasta alcanzar el vídeo; pues la definición de la información viene determinada, en primera instancia, por las posibilidades computacionales de procesamiento y capitalización.
Sin embargo, siguiendo con el paradigmático motor de búsqueda, si existe algún punto de inflexión que evidencie la ‘personalización masiva’ este es, sin lugar a dudas, el desarrollo de la Búsqueda Personalizada en el año 2005: un sistema que, basándose en el historial previo de búsquedas de cada usuario, ofrece unos resultados acorde a su contexto y experiencia previa. El ‘pointcasting’, el tercer estado de la conformación del público/audiencia/usuarios –precedido por el ‘broadcasting’ y el ‘narrowcasting’– basado en un dividuo que no es más que una fracción del conjunto total de la masa-de-datos. Una sección de los flujos que sobredeterminan el universo digital o, más bien, la intersección entre ellos; como si el dividuo fuese, literalmente, un fragmento aislado y calculable del conjunto total de los datos y las relaciones de sobredeterminación.
***
De mano de Foucault, John Cheney-Lippold establece una distinción dentro de la biopolítica para referirse a ésta nueva modalidad de poder, ya que “la formación del conocimiento implícito en el trabajo algorítmico crea y hace emerger nuevos objetos de conocimiento y acumula nuevos cuerpos de información que en última instancia da lugar a nuevas prácticas de categorización cibernéticos […] A diferencia de las concepciones de biopoder duro que regula la vida a través del uso de categorizaciones, el biopoder blando regula cómo esas mismas categorías se determinan para definir la vida. […] La biopolítica suave/blanda [soft biopolitics] constituye las formas en que el biopoder define lo que la población es, y determina la forma en que la población está situada discursivamente y cómo se desarrollada.”[9] Una forma de biopoder que es únicamente relacional, por lo que no son necesarios los encierros propios del régimen disciplinario, sino la disposición superficial de todas las posiciones y combinatorias posibles. Así, las categorías dejan de ser compartimentos estancos para convertirse en nodos referenciales, vórtices de los que emergen y en los que convergen los flujos que componen a los dividuos.
El régimen de visualidad propio de la arquitectura del panóptico se renueva como arquitectura de la visibilidad algorítmica, y es por ello que la conducta no se impone, sino que se conduce el deseo, pues las arquitecturas algorítmicas construyen dinámicamente ciertas formas de práctica en torno a la búsqueda de visibilidad. Una inversión de la lógica del panóptico en la que sus sujetos, habiéndose descompuesto en dividuos, se afanan en recomponerse como unidades discretas, reclamando convertirse en sujetos de la visualidad de una inquisidora autoridad simbólica:
Y a cambio la inalcanzable promesa de que satisfaciendo su apetito habrá alguna posibilidad de que la ingente cantidad de información y datos hipermediada implosionase dando lugar a una identidad inmediata, un cuerpo-de-datos más allá de la mera insinuación.
Pero en ese proceso, no sólo se están procesando y reprocesando constantemente unas categorías, sino que esas categorías, en las diferentes intensidades que componen a cada uno de los usuarios dividuales, son performativizadas por ellos aún sin saberlo; es decir, son los usuarios los que están siendo producidos, por ellos mismos, para su propio consumo.
Ésta es la producción de la ‘personalización masiva’: la procesualización automatizada que sobredetermina las categorías y su definición, a los usuarios dividuales y al conjunto de la masa de datos, así como los recursos discursivos y producciones deseantes alienadas y redistribuidas.
***
Taina Bucher, posiblemente la investigadora que más tiempo ha dedicado a analizar el funcionamiento del algoritmo de EdgeRank que rige Facebook, define este nueva estructura como fundamentada sobre “la amenaza de la invisibilidad, [que] debe entenderse tanto literal como simbólicamente. Mientras que la forma arquitectónica del panóptico instala un régimen de visibilidad donde ‘uno es totalmente visible, sin ver nunca’, los algoritmos de Facebook instalan la visibilidad de una manera mucho más inestable: uno nunca es totalmente visible o particularmente privado de su capacidad de visión. […] el perfil de usuario representa el esquema que ‘provee las posiciones fijas y permite la circulación’. […] Esta es la razón por la que los espacios están diseñados de una manera tal que hace a los individuos intercambiables.”[10]
La estructura genérica de los perfiles de usuario no está diseñada para proporcionar un espacio específico para cada dividuo, sino para permitir que el gran espacio modular que conforman en conjunto pueda ser rearticulado para hacer los datos que desprenden cada uno de ellos más manejables. Cada módulo en el que se inserta cada usuario-dividual se convierte en un contexto al que se incorpora al considerarlo suyo, un lugar propio desde el que poder ver el espectáculo de la infinita cascada de novedades que fluyen a través de él. Sin embargo, la inmutabilidad estructural de ese espacio es percibida como un anclaje, un lugar fijo a través del cual discurren datos e información sin saber que, en realidad, ese módulo está siendo desplazado y modulado, valga la redundancia, por un procesamiento constante.
Es precisamente la permanencia y estabilidad de la interfaz, de su ‘mero diseño’, lo que permite que la estructura genética pueda mutar constantemente sin ser percibido.
No obstante, mientras que la arquitectura del panóptico distribuye la visibilidad de forma homogénea y permanente, la arquitectura de EdgeRank no trata a los sujetos por igual, sino que da prioridad a algunos sobre otros, siendo la visibilidad ya no algo ubicuo sino escaso; “similar a la lógica algorítmica de los motores de búsqueda, Facebook implementa un mecanismo de selección automatizado y predeterminado para establecer la relevancia, en última instancia, la demarcación de la zona de visibilidad para ese espacio medial.”[11] De este modo, cada usuario dividual se ve arrastrado por la implosión en un solo acto de la producción, distribución y consumo ante la amenaza de invisibilidad que ejercen unos flujos de información y datos siempre crecientes, imponiendo una normalización de la sobreexposición como única vía para la iluminación; como si de un premio a la eficiencia de las máquinas deseantes se tratase.
Sin embargo, en esa pugna constante contra la propia ejecutabilidad de unos algoritmos que asumen el filtrado y la consecuente desaparición –o limitación de (sobre)exposición– como dinámica, cada usuario dividual trata de encajarse en una masa-de-datos respecto a la cual siempre está desfasado y, paradójicamente, en su esfuerzo, es él mismo el que modifica la masa total autocondenándose en un solo movimiento al desfase.
***
Los datos se imponen sobre la fuente que los produce, ya que se consideran mediciones objetivadas algorítmicamente que constituyen una visión de la masa-de-datos que los contextualiza y legitima, mientras que el usuario-dividual no deja de ser un subproducto, siempre incompleto en su normalización, del propio procesamiento del conjunto. En el contexto del Big Data la agregación se subordina a los patrones y categorías que emergen en el procesamiento de los datos, de tal modo que mientras que unos nexos actúan como vectores de atracción entre los elementos que vinculan, otros muchos ejercen como líneas de divergencia que separan a cada uno de los patrones y categorías respecto al resto. Es decir, aun tratándose de límites permeables y comunicantes, la masa-de-datos no deja de estar dividida en diferentes secciones –conformando categorías o conformadas por etiquetas– que son, en sí mismas, las que hacen de la masa un recurso explotable. Como propuso Althusser ya en 1967, “si la sobredeterminación supone operaciones tales como la exclusión, la fragmentación y la condensación al tiempo que reemplazos y translaciones de relevancia, […] entonces podemos afirmar que la sobredeterminación da cuenta de la presencia del poder en todo proceso de significación.”[12]
Una presencia del poder que, por la incesante renovación tecnológica así como su expansión fruto de ‘la hibridación de la conectividad promiscua’ –de nuevo con Critical Art Ensemble–, está dando lugar a la emergencia de una autoridad algorítmica que unilateraliza el control en todo proceso de significación; bien sea cultural, ideológico, subjetivo o afectivo –aunque obviamente todas ellas son interdependientes–.
Sin embargo, esta proposición sobre esta autoridad algorítmica no debe ser entendida del modo en que la propone Clay Shirky, según el cual “la autoridad algorítmica es la decisión de considerar como autorizado un proceso no administrado de extracción de valor de diversas fuentes, de poca confianza, sin ningún humano de pie, al lado del resultado diciendo «confía en esto porque confías en mí». Este modelo de autoridad difiere de la autoridad personal o institucional.”[13]
Aunque compartimos parcialmente esta definición, diferimos respecto a ella por dos motivos fundamentales: Primero, por considerar éste como ‘un proceso no administrado’ cuando la aparente no-administración o inmediatez no es más que el resultado de la automatización de un proceso que elimina las huellas de su manufactura. Tanto en la programación de los algoritmos –que realizan un procesamiento que autopone sus propios límites, la arquitectura algorítmica–, como en el diseño de la interfaz, existe una hipermediación y administración que persigue la explotación económica eficiente de sus recursos; su valor informacional. En segundo lugar, por comenzar la definición relegando la agencia de la acción –y responsabilidad única– a los usuarios que toman ‘la decisión de considerarlo como autorizado’; pues “el ejercicio de poder”, recordando a Foucault, “no es un consenso, ni es violencia, jamás puede ser tal sin una o sin el otro”[14].
Por tanto, nuestra definición, reformulando a la de Shirky, es la siguiente: ‘La autoridad algorítmica es el poder maquínico y simbólico –automatización de la significación– que emerge del proceso altamente administrado de extracción de valor –económico en primera instancia– de unas fuentes siempre en aumento, con la razón tecnológica de pie, al lado de los datos –lo ‘que viene dado’– diciendo «confía en esto porque confías en mí –como autorizado (consenso) y autoritario (violencia)–, en ti –performativizando el cuerpo-de-datos excorporado de tu trabajo libre– y en todos nosotros –la masa-de-datos que sobredetermina y normaliza tu identidad algorítmica–». En este modelo de autoridad remedia a la autoridad personal e institucional’.
La diferencia entre ambas definiciones, aun pudiendo parecer lo contrario, es mínima: él toma a la autoridad algorítmica únicamente en sus consecuencias sobre el significado, lo simbólico y la función retórica, es decir, a través de la superficie de su interfaz, como si de un dispositivo tecnológico se tratase. Sin embargo, aunque la autoridad algorítmica se manifiesta en esa superficie, en la conformación de unas arquitecturas de interacción y elección en las que el usuario posee una cierta agencia, forma parte de su núcleo genético; del mismo modo en que los datos que constituyen su materia prima, recordando a Lisa Gitelman, “siempre se movilizan de forma gráfica”. Pero esta interfaz, esta forma gráfica, es siempre escasa e incompleta puesto que el Big Data es exceso –de sobreexposición y de producción–, tal y como demostró el artista Owen Mundy en 2012 con su proyecto ‘I am Unable to Fulfill Your Wish’ [Estoy Incapacitado para Satisfacer Tu Deseo], conformado por “una serie de ‘visualizaciones’ distópicas creadas usando datos de redes sociales anonimizados y herramientas de gráficos de red simples.”[15] Representaciones de las relaciones entre diferentes elementos de las redes dispuestos, con una mínima cantidad de procesamiento –por ello usa ‘herramientas de gráficos simples’–, para “poner de manifiesto la incapacidad de las interfaces y otros espacios digitales para representar la complejidad de la vida cotidiana y la cuestión de si la tecnología y los datos alcanzarán jamás su promesa utópica.”[16]
Él mismo produciendo interfaces que muestran la condición relacional de los datos, resultando en una maraña indigesta de líneas negras sobre blanco que sobredeterminan unos datos censurados, ocultos por un rectángulo también negro, de tal modo que sólo se visibiliza aquello que habitualmente permanece invisible: el procesamiento de unos datos que existen, únicamente, por su sobredeterminación procesual. La perturbadora distopía de lo inconmensurable en el contexto de la utopía de la computabilidad y objetividad algorítmicas manifestándose, de forma inmediata, en una interfaz amigable y usable. La compleja articulación técnica que conforma las tecnologías de poder algorítmico y la identidad de la autoridad: siempre la misma y constantemente mutando.
Así, estas visualizaciones de ‘la complejidad de la vida cotidiana’, aun siendo únicamente una representación particular y parcial, “podrían representar actores y relaciones en intrincados sistemas económicos, clubes sociales o enredadas estructuras de poder”[17]. Porque a pesar de ser fragmentos procesados que ‘no están capacitados para satisfacer tu deseo’, ¿acaso el procesamiento al completo de la masa-de-datos, conformada por miles de millones de usuarios, lo estaría? Es decir, ¿podría la autoridad algorítmica del Big Data computar un universal y todos sus particulares –y presentificaciones, en caso de ser en tiempo real– ‘capacitado para satisfacer tu deseo’?
[1] Las otras dos normas son: “no importa el número de veces que haya que hacer clic en algo si la opción es mecánica e inequívoca” y “elimine la mitad de las palabras en todas las páginas y luego deshágase de la mitad de lo que quede.” KRUG, Steve. No me hagas pensar. Una aproximación a la usabilidad en la web. 2a ed. Barcelona: Prentice Hall, 2006.
[2] Ibid. p. 21
[3] MUSHON, Zer-Aviv. Interface as a conflic of ideologies 2007. [Consulta: 25 diciembre 2016]. Disponible en: ˂http://mushon.com/xtra/interface_conflicts.pdf˃. p. 1-2 [a point of interconnection between two independent systems. […] If the sides interacting through the interface are to be two independent systems, then one would expect interface itself to maintain that balance and not favor one system over the other.]
[4] CRITICAL ART ENSEMBLE. The Electronic Disturbance. [en línea] 1a ed. Nueva York: Autonomedia, 1994. [Consulta: 25 diciembre 2016]. Disponible en: ˂http://critical-art.net/?p=244˃.
[5] BOLTER, Jay David y GRUSIN, Richard. Remediation. Understanding New Media. 1a ed. Cambridge, Massachusetts: The MIT Press, 2000.
[6] CHUN, Wendy Hui Kyong. Control and Freedom. Power and Paranoia in the Age of Fiber Optics. 1a ed. Cambridge, Massachusetts: The MIT Press, 2006. p. 267 [the freedom we experience stems from these controls, from our vulnerabilities, from the fact that we do not entirely control our own actions.]
[7] LOVINK, Geert. Dark Fiber: tracing critical internet culture. 1a ed. Cambridge, Massachusetts: The MIT Press, 2003. p. 334 [With Internet population growing, you have to design something that will work for 50 million people.” In order to get this level, designers have to become neutral providers of “mass customization” for “users.”]
[8] Critical Art Ensemble, (1994). Op. Cit. P. 134 [it can insinuate itself into the algorithms of everyday life,]
[9]CHENEY-LIPPOLD, John. ”A new algorithmic identity: soft biopolitics and the modulation of control”. Theory, Culture & Society. vol. 28, no. 6, pp. 164-181. noviembre 2011. p. 175 [The knowledge formation implicit in algorithmic work ‘creates and causes to emerge new objects of knowledge and accumulates new bodies of information’ that ultimately give rise to new cybernetic categorization practices […] Unlike conceptions of hard biopower that regulate life through the use of categorizations, soft biopower regulates how those categories themselves are determined to define life. […] soft biopolitics constitutes the ways that biopower defines what a population is and determines how that population is discursively situated and developed]
[10] BUCHER, Taina. ”Want to be on the top? Algorithmic power and the threat of invisibility on Facebook.”. New Media & Society. vol. 14, no. 7, pp. 1164-1180. 2012. p. 1170 [The threat of invisibility should be understood both literally and symbolically. Whereas the architectural form of the Panopticon installs a regime of visibility whereby ‘one is totally seen, without ever seeing’, the algorithmic arrangements in Facebook install visibility in a much more unstable fashion: one is never totally seen or particularly deprived of a seeing capacity. […] the user profile represents a schemata that ‘provide[s] fixed positions and permit[s] circulation’. […] This is why spaces are designed in such a way as to make individuals interchangeable]
[11] Ibid.p. 1168 [Akin to the algorithmic logic of search engines, Facebook deploys an automated and predetermined selection mechanism to establish relevancy, ultimately demarcating the field of visibility for that media space.]
[12] ALTHUSSER, Louis. Revolución teórica de Marx. 1a ed. México DF: Siglo XXI, 2004. p. 114
[13]SHIRKY, Clay. A speculative post on the idea of Algorithmic Authority [en línea] Shirky. 2010. [Consulta: 25 diciembre 2016]. Disponible en: ˂http://www.shirky.com/weblog/2009/11/a-speculative-post-on-the-idea-of-algorithmic-authority/˃. . [Algorithmic authority is the decision to regard as authoritative an unmanaged process of extracting value from diverse, untrustworthy sources, without any human standing beside the result saying “Trust this because you trust me.” This model of authority differs from personal or institutional authority]
[14] FOUCAULT, Michel. ”Post-scriptum. El sujeto y el poder”. En: H.L. DREYFUS y P. RABINOW, Michel Foucault: más allá del estructuralismo y la hermenéutica. Buenos Aires, Argentina: Nueva Visión, 2001. pp. 241-260. 2001. P. 253
[15] MUNDY, Owen. I am Unable to Fulfill Your Wish [en línea] Owen Mundy. 2012. Disponible en: ˂http://owenmundy.com/site/i-am-unable˃. [dystopian “visualizations” created using anonymous social network data and simple network graphing tools.]
[16] Ibid. [Ultimately, the works highlight the inability of interfaces and other digital spaces to represent the complexity of everyday life and question whether technology and data will ever achieve its utopian promise.]
[17] Ibid. [these network visualizations could represent actors and relationships in intricate economic systems, social clubs, or tangled power structures]
Ricardo Tourón Rodríguez (Lugo, 1988) es Doctor en Bellas Artes por la Universidad Complutense de Madrid especializado en arte digital y teoría de los medios. Forma parte del colectivo Sádaba|Tourón desde hace casi una década. A lo largo de su trayectoria ha desarrollado proyectos en los que convergen el dibujo, vídeo, texto, programación y robótica, tanto de forma personal como en colaboración con otros artistas. Actualmente sus intereses giran en torno a la representación gráfica de datos, el desarrollo de sistemas en red, y la imagen y sonido generativos en particular; así como el movimiento maker en general.