Jussi Parikka - Una geología de los medios
1 2023-10-30T00:45:34-07:00 Alberto Tagle 39277dc1900e1238e2544a607393307d200d1d49 42648 2 plain 2023-10-30T00:46:57-07:00 Alberto Tagle 39277dc1900e1238e2544a607393307d200d1d49Lugar: Buenos Aires
Año: 2021
This page has tags:
- 1 media/Bibliografia.jpeg 2024-04-21T23:31:21-07:00 Alberto Tagle 39277dc1900e1238e2544a607393307d200d1d49 Bibliografía Alberto Tagle 18 image_header 2024-05-04T04:58:20-07:00 Alberto Tagle 39277dc1900e1238e2544a607393307d200d1d49
This page is referenced by:
-
1
media/Autorías no-humanas.png
2024-04-21T21:41:32-07:00
3.1 Escrituras, lecturas y autorías no-humanas digitalizadas
226
image_header
2024-05-10T08:18:13-07:00
El presente capítulo busca llevar a cabo diversos análisis sobre las implicaciones que pueden darse al pensar las autorías escriturales desde el posthumanismo –centrándonos en los conceptos de agencia, materialidad y mediación técnica presentados anteriormente– tomando como referencias principales el experimento escritural hecho a partir de la poesía de Ramón López Velarde y los desplazamientos en Jerez, así como la implementación de la plataforma Scalar.edu. Para ello, proponemos cuatro secciones –en cuanto consideramos que estos temas fueron puntos cruciales a lo largo de nuestra relación con esta forma particular de escritura– que abordan la existencia de autorías no-humanas, la dependencia material y energética que tiene la autoría escritural, la expansión de los órdenes de la realidad donde puede emerger la autoría y, por último, la relación que puede haber entre la desapropiación y la apertura a pensar en formas de autoría más situadas. Este capítulo tiene la pretensión, pues, de abordar la desapropiación de Velarde, su configuración digital y su exposición en esta plataforma para desafiar convenciones orilladas a la propiedad y a la individuación autoral. Al mismo tiempo, mostraremos las complicaciones e inconvenientes de autorar en un entorno sociotécnico con un alto grado de tecnificación como el que se ha puesto de manifiesto en el capítulo anterior.
Escrituras, lecturas y autorías no-humanas
El 5 y el 9 de enero de 2023 modifiqué la entrada Futbolista del año en Luxemburgo en idioma español de la Wikipedia, agregando a un supuesto A. Tagle como ganador del trofeo en la temporada 2017-2018:
Si observamos el historial de revisiones que se han realizado posteriores a la información falsa de mi autoría, podemos ver que han sido otros dos autores quienes han hecho modificaciones a la entrada de Wikipedia:
El 22 de enero de 2024 NacaruBot eliminó algunos enlaces innecesarios, pero más interesante resulta el caso de BenjaBot, usuario que tiene su propia entrada en Wikipedia:
Benjabot es sólo uno de los de miles y miles de casos –en 2014 se estimaba que Wikipedia había aprobado el uso de por lo menos 1800 bots para la creación y corrección de entradas en idioma inglés– de intervenciones escriturales hechas por agentes no-humanos en internet. Éric Sadin señala que:[u]n estudio llevado a cabo por la sociedad Incapsula –proveedora de servidores seguros–, que se publicó en febrero de 2012, concluyó que el 51% del conjunto del tráfico en Internet era generado por agentes no humanos: programas de hacking, envíos automáticos de spam y otros procedimientos automatizados; el 20% de este 51% fue juzgado "neutro", mientras que la mayoría del tráfico (un 31%) era potencialmente maliciosa (31).
La generalizada automatización como parte de la lógica computacional ha hecho que los procesos de escritura, lectura y autoría escriturales estén imbricados entre una serie de diversos agentes para su funcionamiento en la red. A cada momento hay miles de bots leyéndose y corrigiéndose entre sí a la par que van aumentando la escritura depositada en internet. Andew Lih (105) muestra cómo la expansión y consolidación de Wikipedia en diversos idiomas no hubiera sido posible sin la implementación de bots, es decir, a través de lecturas, escrituras y autorías no-humanas. Si el código regula, para Lih el bot es una suerte de patrullero informático. En este enclave sociotécnico, que Sadin llama administración digital del mundo, Katherine N. Hayles argumenta que podríamos entender sobre un machine reading que:[t]he controversies around “reading” suggest it is a pivotal term because its various uses are undergirded by different philosophical commitments. At one end of the spectrum, “reading” in the Traditional Humanities connotes sophisticated interpretations achieved through long years of scholarly study and immersion in primary texts. At the other end, “reading” implies a model that backgrounds human interpretation in favor of algorithms employing a minimum of assumptions about what results will prove interesting or important. The first position assumes that human interpretation constitutes the primary starting point, the other that human interpretation misleads and should be brought in after machines have “read” the material [...] The further one goes along the spectrum that ends with “machine reading,” the more one implicitly accepts the belief that large-scale multicausal events are caused by confluences that include a multitude of forces interacting simultaneously, many of which are nonhuman (29).
La existencia de lecturas, escrituras y autorías no-humanas no sólo involucra que los ensamblajes técnicos pueden ejecutar dichos actos, sino que median también la forma en que nosotros los realizamos. La algoritmización personalizada de las redes sociales, las recomendaciones de Netflix, la segmentación de audiencias y hasta los precios dinámicos son formas en que la lectura, escritura y autoría no-humanas median nuestra existencia. Al respecto, Lev Manovich apunta que:[c]omo los nuevos medios se crean, se distribuyen, se guardan y se archivan con ordenadores, cabe esperar que sea la lógica del ordenador la que influya de manera significativa en la tradicional lógica cultural de los medios. Es decir, cabe esperar que la capa informática afecte a la capa cultural. Las maneras en que el ordenador modela el mundo, representa los datos y nos permite trabajar; las operaciones fundamentales que hay detrás de todo programa informático (como buscar, concordar, clasificar y filtrar); y las convenciones de su interfaz –en resumen, lo que puede llamarse ontología, epistemología y pragmática del ordenador– influyen en la capa cultural de los nuevos medios, en su organización, en sus géneros emergentes y en sus contenidos (93).
El problema de esta supuesta omnipresencia de la lógica informática en la conformación de la capa cultural es que puede derivar en una postura demasiado inclinada a su inmanencia. El propio Manovich llama Cultural Analytics a una metodología de las denominadas, también por él, humanidades digitales que buscan entender el crecimiento exponencial de la cultura a través de las mismas herramientas informáticas con las que se crea. Por ejemplo, Manovich (119) da cuenta de cómo James Cutting investigó –a través de analizar por medio de ordenadores toda la bibliografía posible que encontró respecto de la pintura impresionista– cómo sólo se utilizaban como ejemplos aproximadamente 140 pinturas principales para estudiar el impresionismo, aunque se tiene la certeza de 13,000 obras pintadas en esa época que pueden ser catalogadas como tal. Manovich considera que un procesamiento que buscara patrones y que tuviera como conjunto de datos a todas las pinturas podría formar, por lo menos, una definición distinta de lo que es el estilo impresionista. Es una visión de la lectura, como apunta Hayles, que afirma la interpretación humana como un posible punto de error, como una desviación a diferencia de la objetividad cuantificable del análisis de datos, entendida como forma de lectura no-humana. Manovich argumenta que "[i]t is only logical that media and digital culture studies and humanities are next to start approaching their subjects using quantification, mathematic models, and data visualization. The key reason in my view that this is both possible and inevitable is the new scale of cultural production, dissemination, and participation (25)". La visión de Manovich presupone que la lógica de la producción cultural sujeta a un entorno sociotécnico digital es aprehensible a través de la misma computabilidad. Veamos un ejemplo que podría equiparar a las autorías escriturales tanto humanas como no-humanas de la misma manera.
Jorge Carrión generó un experimento que podría ser considerado como un caso de estudio para las Cultural Analytics de Manovich. En el libro Los campos electromagnéticos: teorías y prácticas de la escritura artificial un capítulo fue hecho a través de la implementación de inteligencia artificial. Por medio de la tecnología GTP-2, y en colaboración con los técnicos de OpenAI, se entrenó a un modelo de lenguaje exclusivamente con todos los libros y artículos que el propio Carrión había escrito hasta la fecha y luego se le solicitó escribir sobre ciertos temas concretos, a este autor se le llamó Jorge Carrión Espejo. Si bien sólo funcionó como un ejercicio lúdico en el que Carrión exploraba qué tanto podían las nuevas inteligencias artificiales comprender a, y volver patrones, su escritura, no deja de existir una suerte de visión demasiado datificada respecto de lo qué es la autoría. Carrión Espejo alimenta la propia lógica que el Carrión humano describe como "[s]ólo importan el impacto y los metadatos. Todo el nuevo sistema se sostiene en los rastros, las correlaciones, las líneas de consumo que traza cada internauta, cada lector, cada videoespectador. En el nuevo mundo del big data, por tanto, las obras o los contenidos son muchísimo menos importantes que las líneas de datos que construimos cada uno de nosotros (23)." Carrión Espejo es producto de una visión demasiado informacionalizada de la autoría, de la misma manera en que la autoría deviene metadato para la grandes corporaciones como Google Books o Amazon que Carrión define como megaconstrucciones algorítmicas en la medida en que la función principal de la autoría es describir, clasificar y catalogar otros datos.
Gary Hall critica la postura de Manovich, en la cual también puede entrar en ejercicio de Carrión Espejo, por ser demasiado inmanente –entendiendo por inmanencia el supuesto de que los fenómenos culturales pueden ser explicados y conceptualizados como unidades definidas sin la necesidad de integrar lo que los rodea en el análisis– y considerar que conceptos como estilo, autoría o la cultura misma pueden ser perfilados a través de los análisis de correlaciones que puede hacer un ordenador; y acaba por calificar a dicha postura como una especie de formalismo del siglo XXI (45). No negamos que la implementación de las tecnologías digitales pueda servirnos para la exploración de conceptos como los de escritura, lectura y autoría –véase la intención de este proyecto de investigar como un tecnotexto– aunque sí rechazamos la inclinación a suponer que la única vía para analizar la vasta cantidad de fenómenos culturales sea también escalando ciegamente nuestros procedimientos. Pero, ¿cómo podemos alejarnos de la idea de que la cultura algoritmizada sólo puede ser comprendida en la algoritmización misma del análisis? A través de la revisión de nuestro experimento con Raspvelarde Pi y desde nuestras ideas de agencia y materialidad buscaremos perfilar una vía distinta al formalismo de Manovich para explorar las autorías no-humanas, haciendo un énfasis en las digitalmente mediadas.
Parece que la visión que tiene Manovich sobre los datos es, y en esta dirección apunta la crítica de Hall, demasiado abstracta en cuanto el dato parece ser una suerte de material que contiene sólo la posibilidad de su procesamiento, pero que su historicidad previa carece de importancia para su computabilidad. La hipotética generación esquemática de patrones de líneas, perspectiva, colorimetría que den cuenta del estilo impresionista parte de una base de pensamiento que cree que los fenómenos pueden ser explicados por sí mismos si se tiene un número de casos lo suficientemente grande para ser perfilados. Es sustantivar dichos fenómenos al desprenderlos de cualquier tipo de relación que no esté contenida en las obras mismas: desde sus creadores, innovaciones técnicas, influencia de los críticos, recepción del público, modelos de circulación de las obras, etcétera. Así, esta visión de las posibilidades de la computación para estudiar la cultura parece ser una suerte de búsqueda de restitución de la autonomía perdida que explora Josefina Ludmer. Consideramos que, si se pretende hacer uso de las tecnologías digitales, es fundamental situar a los datos, que en el proceso de darles forma, atendamos a sus historias previas. Por ejemplo, de las 1564 líneas utilizadas para la desapropiación de Velarde, 94 de ellas contienen comillas que apuntan a otras escrituras: informes, otras notas periodísticas, testimonios de personas desplazadas que señalan a otras materialidades, agencias y relaciones que no están estrictamente contenidas en el aparato escritural mismo pero que lo sostienen. Si a lo largo de la investigación hemos sugerido que la confrontación a la autoría individuada puede darse por medio de situar las prácticas y la base de pensamiento de la cual se parte, también creemos que los datos tienen que ser situados y no ser tratados como entidades imparciales que no arrastran tras de sí algún tipo de inclinación. De igual forma, se vuelve necesario comprender que los modos en que se dan los procesos de escribir, leer y autorar son diversos para los agentes que están relacionándose. Comprender a las autorías escriturales posthumanas requiere comprender estas diversidades y sus mediaciones.
Carole Guesse afirma que "[t]he possibility of a posthuman author therefore depends on one’s own understanding of the nature of literature (31)", por lo que una investigación de la autoría escritural posthumana que atienda a la tecnicidad digital necesariamente tiene que indagar en las formas que toma la escritura no-humana. Por ejemplo, Janneke Adema, en su análisis posthumanista sobre el libro, sugiere que su versión impresa sirvió para el humanismo como una forma de fetichizar una visión “rational, individual, original, liberal humanist author, perceived as an autonomous agent responsible for knowledge creation (9)” que, como considera Barthes, sirvió a la teoría literaria como un estabilizador y fijador del lenguaje. Siguiendo lo propuesto por Scott Lash, descrito en el capítulo anterior, respecto de la velocidad comunicacional inmediata de la información a diferencia de la secuencialidad discursiva, pensamos que esta diferenciación es clave para comprender los modos por los que puede operar la escritura no-humana y, por lo tanto, también sus autorías y cómo estas confrontan las estabilizaciones generadas por los modelos humanistas.
Lash (11) sugiere que las temporalidades y velocidades comunicacionales previas a la digitalización permitían que la discursividad lograra ser reflexionada, fomentando la crítica. Es decir, este tipo de comunicación escritural sí que dependía de las estabilizaciones de los significados dadas a través del autor. Desde Ferdinand de Saussure se ha contemplado una idea del significado como imagen mental y, por lo tanto, inclinada hacia la inmaterialidad. Desde una perspectiva que trata de comprender las escrituras no-humanas, pensamos que no sólo es que el autor estabilice el significado, sino que la condición misma de significado estabiliza una visión de la escritura demasiado centrada en la expresividad lingüística humana. No podemos olvidar que la escritura humana también es una técnica y que, como afirma Janne Bennett, "[h]umanos y no-humanos por igual dependen de un conjunto 'increíblemente complejo' de prótesis lingüísticas (93)". En esta dirección, proponemos la noción de sentido, antes que la de significado, como una apertura a una comprensión de la escritura que se separe de una figuración lingüística y no material de la escritura. Desde la posibilidad de existencia de escrituras y autorías no-humanas consideramos que el sentido puede asimilarse, especialmente, de cuatro maneras:- como percepción: el sentido como la capacidad física de mediar los estímulos que emergen en las intracciones con otros agentes.
- como orientación: el sentido como una forma de reconocimiento de dichas intracciones en el espacio y el tiempo.
- como desplazamiento: el sentido como movilidad material que conduce a través de las tendencias de las intracciones.
- como tendencia: el sentido como agenciamiento, como movimiento no mecanicista.
Por ejemplo, Jussi Parikka considera que:en las historias que contamos está implicado mucho más que las palabras que usamos. Ellas cuentan las historias de los medios y la mediación, de la materialidad y la Tierra. Los relatos mismos son de una escala de duraciones geológicas en principio demasiado lentas como para que podamos aprehenderlas. Lo cual exige una comprensión del relato que es radicalmente diferente del significado habitual del contar historias con el que estamos familiarizados en las humanidades. Es probable que este relato contenga menos palabras y más de esa materia semiótica a-significante que una y otra vez impone su presencia, especialmente en la época actual de crisis a la que nos referimos como "cambio global" (51).
Más allá de si coincidimos o no con la imposibilidad discursiva de la información que plantea Lash, y mediando sobre las maneras en las que puede existir la escritura no-humana, consideramos que esta supuesta imposibilidad no implica una anulación de las historias. Las autorías no-humanas se hacen cargo de historias que no tienen por qué implicar linealidad ni secuencialidad y, como apunta Parikka, operan a escalas de tiempo diferentes a las humanas. Proponemos, por lo tanto, que el significado como se ha trazado anteriormente es posible sólo en la primacía de una temporalidad humana, pero que no es un agente indispensable en la conformación de lecturas, escrituras ni autorías que operan a otras escalas.
Serenella Iovino y Serpil Opperman exponen que el material ecocritism "argues that there is an implicit textuality in the becoming of material formations, and this textuality resides in the way the agentic dimension of matter expresses itself, as well as in the way bodies emerge in the combined and simultaneous action of material dynamics and discursive practices (6-7)". Claire Colebrook ilustra esta perspectiva al considerar que la relación entre el Antropoceno y el archivo puede hacerse a través de la idea de fósil en cuanto huella o escritura material de un tiempo sin humanos. Sugiere, por lo tanto, que (véase subrayado azul de la página 24):
Tratar de dilucidar que ni las autorías, escrituras y lecturas son acciones exclusivamente humanas podría servirnos para leer otras historias que se desenvuelven en otras temporalidades y qué sentido, qué orientación pueden sugerirnos. En esa medida buscamos pensar el sentido a través de los desplazamientos de la materialidad porque, como nos recuerda Bennett, "la agencia está ligada, a su vez, a la idea de una trayectoria, una direccionalidad o movimiento por el cual algo se aleja de un determinado lugar, aun cuando sea incierto o ni siquiera exista un otro lugar hacia el cual se dirige (87)". Al tratar de comprender la mediación digital en la escritura, lectura y autoría, creemos que se da el problema de que la rastreabilidad agencial entre más compleja es la red y las propiedades de los agentes que median, más complejo se vuelve también su seguimiento, la agencia vista como una forma de leer las escrituras no-humanas se cajanegriza. Por ejemplo, esta misma página web también podría visualizarse de la siguiente manera (deslizar la página hasta el final):
Siguiendo a Colebrook, pareciera que la escritura no-humana de los ordenadores podría seguir funcionando bajo una sintaxis supuestamente humana, pero realmente sólo es una presentación gráfica de desplazamientos de sentido que operan a escalas atómicas. El código escrito para el experimento mostrado en el capítulo anterior es una traducción, como lo entiende Bruno Latour, que permite cierto grado de legibilidad para el usuario y su mediación, pero no es la escritura misma del ordenador. Sin embargo, las maneras por las que podemos entender el sentido de la escritura no-humana son susceptibles de ser situadas y contextualizadas. Así, podríamos entender que cuando el sentido actúa informacionalmente, como afirma Lash,[l]o que sucede es el pasaje de un registro de significado a un registro de operacionalidad [...] La cuestión no es tanto qué significa; es cómo funciona. El significado y la operacionalidad son "lógicas del sentido". La lógica del sentido es lo que Pierre Bourdieu llama sens pratique: modos de orientarnos en el mundo. La idea puede ampliarse –como lo hace Henri Lefebvre (1986)– a los modos de orientarse en el mundo de los no-humanos. Hoy nos orientamos en él –a menudo en conjunción con las máquinas de información y comunicación– según una lógica del sentido, un sens pratique que acaso deba menos al significado que a la operacionalidad (357-358).
Así, ni el código de Raspvelarde Pi como tampoco la base de datos –por más que su escritura sea humana y haya sido escrita originalmente para ser leída en esos términos– funcionan a través del significado. La automatización, basada en la aleatoriedad computacional, deriva en que pueda diluirse una condición fundamental para la estabilización de los significados: la intencionalidad, la teoría literaria hablaría de intentio auctoris. Manovich piensa que "[l]a codificación numérica de los medios [...] y la estructura modular de sus objetos [...] permiten automatizar muchas de las operaciones implicadas en su creación, manipulación y acceso. De ahí que pueda eliminarse la intencionalidad humana del proceso creativo, al menos en parte (77)". El producto resultante En tu casa desierta: una desapropiación de Ramón López Velarde sí que puede leerse con una noción de intencionalidad y significado, pero los procedimientos tanto de lectura, escritura y autoría previos no. El propio Manovich también señala que "[s]uele decirse que el usuario de un programa interactivo arbóreo se convierte en su coautor (182)" que funciona bajo una lógica de la selección (184), como en este caso a través de la conformación de la base de datos.
Sin embargo, que las escrituras digitales no operen a través de significados lingüísticos no implica que sus autorías tengan una total ausencia de estos. Las mediaciones nunca son unidireccionales y en la imbricación de heterogéneos agentes es posible que –en diversas capas y en diferentes temporalidades– las autorías posthumanas, en su relacionabilidad, incluyan propiedades contrapuestas. Así, el código de Raspvelarde Pi tiene una sintaxis humana, pero una lectura no-humana, mientras que En tu casa desierta: una desapropiación de Ramón López Velarde tuvo un proceso de escritura no-humano pero su ordenamiento fue dirigido hacia una legibilidad humana. Por ello creemos que la idea de sentido puede funcionar como un nodo que reúna una comprensión de las autorías no-humanas. Aunque sea a diferentes escalas, tanto autorías humanas como no-humanas se manifiestan en la materia y dejan tras de sí un rastro, una huella, que puede ser seguida, leída. Si la pregunta por la autoría se ha formulado como ¿de quién es esto?, ¿quién lo creó?, ¿cuál fue su intención?, proponemos que también pudiera formularse como ¿de dónde viene?, ¿hacía donde conduce? Tratar de capturar los sentidos hacia los que apuntan las autorías no-humanas es invitarnos a orientarnos en este mundo de una forma menos centralizada en nuestra única intención. Atender a otras autorías es apuntar a la relación que establecimos con otros agentes en pasados remotos, pero también hacia propuestas de mundos futuribles menos proyectados desde nosotros.
Teorizar a través de una filosofía relacional, como la posthumana, nos permite advertir la imposibilidad de sustancializar la autoría en un único agente. Así, escrituras, lecturas y autorías humanas y no-humanas están en un constante proceso de mediación. Las eventuales emergencias de las autorías escriturales, como un proceso siempre relacional, se darían a través de su distribución entre heterogéneos agentes. Aunque, como Graham Harman indica "[c]rear algo no quiere decir ver a través de su profundidad (188)", y mientras más cajanegrizadas estén las diferentes tecnologías escriturales que participan, también sucede una cajanegrización de la autoría escritural. Las autorías escriturales posthumanas, al operar bajo un régimen digital, se abren hacia su distribución y descentralización humana, pero también asumiendo un grado de opacidad técnica. Como veremos con detenimiento posteriormente, es tarea de las prácticas posthumanistas buscar modos que puedan descajanegrizar este tipo de autorías escriturales. -
1
media/MapaScalar.png
2024-04-17T19:19:16-07:00
3.2 Scalar, la digitalización de la autoría y su dependencia energética
173
google_maps
2024-05-10T08:18:31-07:00
47.234464, -119.852575
19.0438393, -98.1982317
25.66668, -100.316686
Como se mencionó en la Introducción, en los primeros pasos de conformación de esta investigación, y para participar en la mediación digital como parte del proceso de la exploración de las autorías escriturales posthumanas, se decidió utilizar la plataforma Scalar.edu en la medida en que una de sus intenciones principales es proveer un soporte que facilite otras vías de publicación académicas que inviten a la exploración de los propios medios digitales. Entre las características que destacan para dicha exploración se encuentran: el soporte de distintos medios y sus formatos como imágenes, videos, audios, etc., la posibilidad de estructuras flexibles y no lineales, la integración de código, la posibilidad de elaborar proyectos con múltiples autores y el seguimiento de control de cambios. La plataforma, realizada bajo la filosofía open source, fue conceptualizada bajo la premisa de encontrar un "balance between standardization and structural flexibility to all kinds of material" para el trabajo académico. La plataforma se creó originalmente en un contexto de crisis financiera en 2008, por lo que buscaba incitar a otras formas de publicación para las universidades más allá del libro tradicional. Es gratuita y sólo se requiere, para solicitar el acceso que permita crear un proyecto, de un correo institucional por parte del usuario.
Una de las consecuencias de ser gratuita reside en que el usuario tiene un límite para el peso máximo de los archivos multimedia que desea que estén alojados directamente en la plataforma, cuyo peso máximo es de 2 MB. Como también se mencionó en la introducción, Scalar está principalmente impulsada por la University of California, sin embargo hace uso de servidores pertenecientes a Microsoft para su operabilidad. A través de la página whoishostingthis.com es posible rastrear la Dirección IP donde se encuentra alojada Scalar y, por lo tanto, nuestra propia investigación:
Con la Dirección IP (40.91.127.220) podemos rastrear con geolocation.com que nuestro proyecto se encuentra alojado en el Microsoft Data Center de Quincy, Columbia. Visitar las páginas web del proyecto no implica que los paquetes de datos viajen directamente hasta mi posición actual, en Puebla, debido a que internet es una red descentralizada. Si en la terminal de nuestro ordenador, en caso de Windows se abre una ventana de Símbolo de sistema, se utiliza el comandotracert
seguido de la IP (en este caso seríatracert 40.91.127.220
) es posible tratar de rastrear la ruta que toman los paquetes de datos desde el servidor hasta nosotros:
Varias pueden ser las causas que causen la leyendaTiempo de espera agotado para esta solicitud
que nos impide seguir la totalidad de la ruta de la información, apenas si podemos localizar su paso por Monterrey, pero generalmente se debe a que los dispositivos que reciben la solicitud están configurados para no responder por motivos de ciberseguridad. Sanna Karkulehto et. al., en sus estudios sobre la literatura posthumana, plantean que "[n]onhuman beings or environments thus do steer the production of literature, both directly and indirectly, although these processes are often difficult to track and explain (6)", en este sentido sugerimos que la complejidad técnica de los agentes digitales dificulta, muchas veces de manera completamente intencional, su rastreabilidad agencial. Jussi Parikka sostiene que:[l]a cajanegrización, o la evolución de los objetos tecnológicos a punto tal que solo pueden ser usados, pero no entendidos en cuanto objetos técnicos, es un requerimiento de la infraestructura y el desarrollo tecnológico. Un sistema informático, por ejemplo, es prácticamente ininteligible si se lo considera en término de los millones de transistores, circuitos, cálculos matemáticos y piezas técnicas que lo componen. Las cajas negras son la piedra angular puntualizada sobre la base de la cual se construyen las nuevas infraestructuras y tecnologías (269).
Este pequeño ejercicio nos sirve para ejemplificar que en términos de rastreabilidad de la agencia –a través de su expresión material en cuanto que, como argumenta Tim Ingold, "power of the agency lies with the materiality itself (12)"– la materialidad informática digital que es necesaria para alojar nuestro proyecto en Scalar no es accesible debido a una buscada opacidad y cajanegrización del entramado sociotécnico. Si anteriormente hemos planteado el estudio de la materialidad, y por ello de sus particularidades en cuanto parte de un entorno sociotécnico orientado hacia el funcionamiento digital, como uno de los senderos para estudiar las autorías escriturales posthumanas en este apartado centraremos nuestra atención en la materialidad misma de la información y las formas en las que atraviesa nuestra concepción sobre la autoría.
Podemos especular que los proveedores detrás de Scalar no cuentan con una infraestructura material que les permita tener sus propios servidores por lo que decidieron contratar el servicio externo de Microsoft Azure. Sean Cubitt, Ingrid Volkmer y Robert Hassan (154) señalan que, de toda la infraestructura necesaria para el correcto uso de los entornos digitales, los más grandes contribuidores al incremento de la huella de carbono son los centros de procesamientos de datos como el de Quincy. En 2021, Brad Smith, en ese entonces presidente de Microsoft, dio un pequeño vistazo general de este data center:
Smith llama al data center la infraestructura más importante del siglo XXI a la par que considera que es capaz de moldear la forma en la que vivimos, investigamos, trabajamos, producimos conocimiento, etcétera. Si bien el video, por obvias razones de secreto empresarial, no detalla ninguna de las características tecnológicas utilizadas sí que hace énfasis en el consumo energético al entender que infraestructura digital, infraestructura energética y ciencia ambiental son indisociables en un proyecto de tal magnitud. De manera optimista, Smith presume del poco consumo energético que se requiere en todas las instalaciones. Sin embargo, el problema, como sugiere Seb Franklin es que ha existido un énfasis desmedido en atender la materialidad digital desde el consumo y no tanto desde la producción de su propia infraestructura.
Jennifer Gabrys (26) muestra cómo en la manufactura de los procesadores –uno de los componentes principales de cualquier servidor sin importar su tamaño– hasta un 99% de los materiales utilizados se vuelven desechos residuales que no están en la objetualidad final del producto y sólo tienen un papel en su producción. La existencia misma de los servidores son la patente de lo que la propia Gabrys llama tecnología del exceso (de la información) (33) la cual –como el propio Smith sugirió– es inseparable de sus modelos energéticos. Por lo tanto, desde una visión materialista Jussi Parikka sostiene que "[l]o digital es un régimen de energías: la energía humana y la energía necesaria para las máquinas tecnológicas (197)". La inabarcable cantidad de información alojada en el data center de Quincy, incluyendo esta investigación, no sólo es comprensible a través de todos los procesadores ahí contenidos, sino también en la energía eléctrica requerida o en las tecnologías orientadas a la disipación del calor –que puede ser entendida como la forma en la que se expresa el desplazamiento de la información digital– que requiere todo sistema computacional. Para Gabrys hay una obvia correlación entre las grandes cantidades de producción de microprocesadores, con su contaminación residual, y las también inabarcables cantidades de información que hoy puede ser almacenada.
Kenneth Goldsmith sitúa el incremento de las prácticas apropiacionistas en la literatura en épocas recientes "a pesar de que las computadoras personales existen desde hace ya tres décadas y hemos utilizado la función de cortar y pegar durante todo este tiempo, [pero] es la penetración y saturación de la banda ancha lo que ha hecho que la cosecha de masas de lenguaje se volviera tan fácil y tentadora (15)". En términos de agencia, para Goldsmith, la materialidad previa a la informacionalización generalizada difícilmente habría tenido una condición invitacional que me orillara a generar el experimento En tu casa desierta: una desapropiación de Ramón López Velarde. De igual manera Goldsmith sugiere en Theory que:kl
El exponencial crecimiento de la producción, distribución, consumo y mercantilización de la información digital también posibilitó, considera Andrey Miroshnichenko, una emancipación de la autoría: en su investigación muestra cómo, en el espacio de aproximadamente 20 años, han aparecido más autores que en toda la historia previa de la escritura, con un salto de 300 millones a través de toda la historia a 2 mil millones (7). Así como la información digital, la autoría, en cuanto emerge a través de las relaciones de un ensamblaje profundamente tecnificado, encuentra un camino para su escalabilidad, pero también para su alto grado de dependencia material y energética.El problema de una visión como la del digital mysticism es que la tendencia técnica de los servidores remotos, como la nube, enfocan su narrativa en dicha supuesta inmaterialidad y no dependencia energética. El propio Seb Franklin (456) expresa que esta inmaterialización es una forma de naturalización de la tecnología misma, mientras que Gabrys sostiene que lo que permite la supuesta inmaterialidad de la tecnología es su imposibilidad de ser percibida de forma evidente. Es decir, las agencias y las intracciones de las que emerge la autoría digitalmente mediada sólo son detectables a través de la propia mediación técnica de la que surgen teniendo en cuenta los grados de opacidad y cajanegrización que hay en los mismos. Baruch Gottlieb sugiere que:
[s]o there is an epistemological schism or rift between the scale in "nature" of the macro-phenomena we can perceive with our "unaided senses" and the scale of the aspects of the phenomena which are registered, recorded and retrieved from the digital realm. This digital realm is extremely artificial, made up of metals of the highest purity, and alloys and exotic chemical blends of the most precise measure(72).
Por ejemplo, Gottlieb ve en la posibilidad de visualización de las pantallas digitales un índice de una materialidad y una serie de procesos que ejecutan a una escala atómica. En este sentido, las escalas, tanto infra como suprafenomenológicas, de las intracciones que atraviesan a la autoría escritural también forman parte, junto con la cajanegrización y la opacidad, de la dificultad de atender apropiadamente la materialidad que atraviesa, antecede y soporta a la autoría en cuanto digital. Sin embargo, la presentación de las propias barreras puede mostrarnos las posibilidades de una comprensión de la autoría digital que vaya más allá de una condición de sólo un cambio de significación. Por ejemplo, rechazamos la postura –completamente influenciada tanto por Barthes como por Foucault– que sostiene George P. Landow de ver en la hipertextualidad digital una nueva muerte del autor en la medida en que:[Los argumentos de Landow son propuestos desde una teorización del hipertexto] La falta de autonomía y de centro textuales repercute inmediatamente en las concepciones de autor. Asimismo, la ausencia de límites de esta nueva textualidad también dispersa al autor [...] hay más de una forma de matar al autor. Lo que entendemos por autor, incluida la idea de autoría única, puede destruirse suprimiendo la autonomía del texto (170-171).
De igual manera, también el contraargumento que hace Carolina Gainza –quien escribe desde una búsqueda de otros modos de propiedad intelectual como Creative Commons– al proponer que: "lo que se puede observar es que en las obras digitales el autor constituye una agencia simbólica o semiótica propia del texto, casi como si fuera un personaje clave del mismo, lo que, sin embargo, no significa ejercer una autoridad o propiedad sobre éste, por lo que no hay argumentos sólidos para prohibir su acceso, uso y distribución libre en la red (pos. 3029-3217)". La inmaterialidad entendida como imposibilidad de percepción no debe conducirnos a ignorar toda la materialidad en juego. Es evidente que no podemos tener una percepción completa de la materialidad de la autoría digital porque está cajanegrizada, pero sí que podemos ensamblarla a través de los modelos energéticos de los que depende en cuanto está informacionalizada.
Atender a la materialidad relacional de la autoría en cuanto digital muestra que nuestro entorno sociotécnico acelera y distribuye el agenciamiento de la misma pero, al mismo tiempo, la vuelve mucho más inestable y dependiente de un modelo energético basado, como apunta Gabrys, en el exceso. Cubitt vaticina que es posible que, y como medida de atender a la crisis climática, el racionamiento del acceso a la información pueda ser un camino para tomar en el futuro (155). Por otra parte, Johanna Drucker establece que –teorizando respecto de la innovación en las publicaciones académicas como es el caso de este proyecto– a más complejidad tecnológica mayor es el gasto material y energético que se requiere para su mantenimiento y conservación. Por lo tanto, cuanto más técnicamente complejo sea el ensamblaje del cual emerge la autoría más difícil se vuelve también su preservación y permanencia. La autoría escritural digital, en cuanto sólo puede emerger desde la relacionabilidad material, ahora mismo depende de un modelo energético que es insostenible a largo plazo: no hay una escalabilidad de la autoría sin un costo material. -
1
media/Non-human post-antrophrocentric universe of materiality and technology, Global View.png
2023-10-29T22:46:26-07:00
1.5 La mediación técnica y su materialidad
69
image_header
2024-05-10T07:49:22-07:00
La agencia como un concepto central para enmarcar la forma del proceder de la investigación posthumana cimenta que las formas de relacionabilidad de los agentes es lo que permite su posterior conceptualización, siempre en constante movilidad. La primera controversia que establece Latour, por ejemplo, en Reensamblar lo social es que no hay grupos, sólo formación de grupos en cuanto la estabilización de estos está siempre sujeta a la posibilidad de cambio. Presuponer una estructura previa de lo humano, de la autoría, de los grupos sociales es momificarlos, es dar por hecho su existencia y no preguntarse por su forma de hacer. La consideración de la agencia de lo no-humano –con el aplanamiento ontológico que esto conlleva– implica asumir que estos agentes no sólo modifican lo humano, sino que lo componen. Esta composición –ahora situada en un tiempo, entorno mediático, espacio y condiciones particulares– no sólo tiene peso dentro de las configuraciones materiales; es decir, esta imbricación no sólo se articula en la diferencia que implicaría utilizar una bicicleta o un caballo como medio de transporte, sino que también la percepción, la subjetivación, la memoria, la forma que toma nuestro conocimiento y entendimiento están constituidos desde y a través de estos ensamblajes. Bernard Stiegler, amparado en los estudios de Katherine N. Hayles, piensa en las formas atencionales (2) de nuestra percepción mediada y que hace un par de siglos décadas un lector tuviera la capacidad de permanecer atento a su novela durante un lapso prologando está profundamente relacionado con el enclave técnico en el que se encontraba de la misma manera en que en la actualidad Gary Hall comprende que la mediación digital contribuye exponencialmente a desórdenes como el déficit de atención, la constante ansiedad, el pánico generalizado y la normalizada depresión debido a una constante sobreestimulación e hiperconexión en nuestras formas de vida:
Si bien consideramos verdadero, como se ha mencionado previamente, que siempre fuimos posthumanos en la medida en que pensamos que ontológicamente siempre nos hemos determinado –que no sólo influido– de forma relacional con la materialidad también resulta verdadero que dichas formas de relacionarse están sujetas al cambio. Es en este sentido que Gary Hall (57) piensa que la filosofía que hace Bernard Stiegler respecto de la técnica resulta fundamental para comprender las particularidades de un mundo tecnificado hasta los más insospechados límites.
Bernard Stiegler, en su obra La técnica y el tiempo I: El pecado de Epimeteo, argumenta que las preguntas ¿Quién es el hombre? y ¿qué es la técnica? (203) no pueden ser respondidas de manera independiente. Para Stiegler, a través de una lectura hecha con Heidegger en mente, la forma en la que el ser humano es capaz de insertarse en el mundo, y por lo tanto en el tiempo, es a través de la técnica. Para Stiegler ese ser prístino, puro –en la medida en que es previo a la técnica– que teoriza Rousseau en Discurso sobre el origen y los fundamentos de la desigualdad entre los hombres ni siquiera es hombre en cuanto que “[m]ientras el salvaje no esté en el desequilibrio de la libertad, mientras que su perfectibilidad permanezca en potencia y no perturbe el juego originario de la naturaleza y de su naturaleza propia, mientras que su poder no se haga real, es decir, técnico, no tiene el sentimiento de la muerte y no anticipa: no está en el tiempo (184)”. Hasta los objetos técnicos más rudimentarios, como los creados para la caza, implican una condición de previsibilidad la cual resulta fundamental en la visión tecnológica y ontológica de Stiegler. Todo objeto técnico, así como su relación con los ya adoptados, es capaz de permitir ciertas formas de relación con el mundo y, por lo tanto, con el tiempo. Así, la agricultura, en cuanto técnica que favorece el almacenamiento de energía metabólica materializada en alimentos, posibilita maneras de sociabilidad sedentarias y mucho más conscientes respecto del paso del tiempo en términos de estaciones, así como configuraciones respecto del espacio para sembrar que deviene en la noción de propiedad. Es por esta base de pensamiento que Hall considera a Stiegler, sin ser posthumanista, como un filósofo que puede ser un punto de partida para la investigación propiamente posthumana. Sin embargo, el propio Stiegler comprende que nuestra relación con la técnica –más allá de que entienda dicha relación con un carácter protagónico– es muy diferente en un momento en el cual hay una tecnificación de todos los dominios de la vida (204).
Desde el trabajo de Gilbert Simondon, Stiegler plantea que los procesos de transindividuación –entendidos como los procesos de transformación mutuos entre los individuos y los objetos técnicos, del cual Stiegler pone énfasis en cómo las experiencias colectivas, como lo puede ser la educación, surgen de este tipo de procesos provenientes de experiencias individuales (2) – son radicalmente diferentes en un entorno mediático ensamblado industrialmente: “[l]a caracterización de la máquina por el automatismo desconoce su virtud, que es también su verdadera autonomía, a saber, la indeterminación [...] En la época industrial, no es él [el hombre] el origen intencional de los individuos técnicos tomados por separado que son las máquinas. Más bien ejecuta una cuasi-intencionalidad de la que es portador el objeto técnico mismo (103)”. Hay una transformación que va de entender al hombre técnico como un “actor intencional” con un conocimiento técnico sobre la acción a devenir un “operario” de objetos técnicos cajanegrizados que le son incomprensibles. En un enclave donde los objetos técnicos provienen de los objetos técnicos mismos y su complejidad e inaccesibilidad articulan nuestras formas de vida y relacionabilidad es que una visión como el posthumanismo toma especial relevancia. Siempre fuimos posthumanos, pero cada vez es más urgente saberlo y actuar desde tal concepción.
Bajo estas ideas es que no podemos comprender la autoría simplemente como la sustantivación o la adjetivación de individuos singularizados, porque las formas que puede tomar la autoría dependen tanto de bases materiales como técnicas para su existencia. Incluso la concepción ilustrada de un hombre universal es comprensible partiendo de que “[...] todo humanismo es logocéntrico. Privilegiar la escritura alfabética es privilegiar al hombre, el ʻfono-logocentrismoʼ (206)”. De ahí que la aspiración ilustrada de Kant se sujeta de una inscripción escritural del uso público para un universo de los lectores (86). Escritura y autoría no es que sean exclusivamente dos fenómenos depositarios o ejemplares de los ideales del hombre abstracto de la modernidad, sino que son dos técnicas que moldearon dicha concepción. Reconfigurar alternativas de la autoría individuada, por lo tanto, no sólo es una pretensión de pronunciarse en el marco de la teoría literaria o los estudios del arte o la estética, en la medida en que (véase subrayado de la página 26):
En este sentido, Donna Haraway da una enorme importancia a la escritura, así como a la autoría, porque la entiende tecnología primordial del cyborg (302) desde la encriptación del genoma humano hasta la creación de patentes, como derechos de autor, de Monsanto. En un mundo prácticamente englobado a través de su digitalización –como escritura en código– la escritura, su autoría y la materialidad de la que se soportan se vuelven fundamentales para entender nuestra relación mediada con el mundo.
Estamos en un momento en el que el grado de imbricación técnica es de tal profundidad que Teresa Aguilar García en su Ontología Cyborg considera que “[e]l cuerpo se revela como inservible sin las prótesis tecnológicas que lo capacitan para funcionar en el mundo actual (57-58)”, adherido a la cooptación prácticamente total del mercado respecto de los objetos técnicos. Nuestra relación con los objetos técnicos –anclado a su grandísimo nivel de opacidad que nos sitúa en una desventaja considerable– ha sido apropiada por una distribución mercantilista de estos: los laboratorios de I+D, las industrias de ensamblaje, las cadenas y redes de distribución, los espacios de almacenaje, las formas de venta y los patrones y modos de consumo de los objetos técnicos están entramados desde una ambición monetaria y devienen así en objeto de consumo. Paula Sibilia considera que el hombre postorgánico se entiende pensando que “en la sociedad contemporánea tanto la noción de masa como la de individuo han perdido preeminencia o han mutado. Emergen otras figuras de aquéllas [sic]: el papel del consumidor por ejemplo (34)”. Pero los modos por los cuales nos relacionamos con la tecnología industrializada y la forma en la que somos mediados por ella no está determinada por su constitución. En este sentido es que Adema entenderá que: véase la página 62 de Living Books mostrado anteriormente.
El hacer hacer de los ensamblajes de las agencias no-humanas y humanas no puede ampararse en un d̶e̶t̶e̶r̶m̶i̶n̶i̶s̶m̶o̶ ̶t̶e̶c̶n̶o̶l̶ó̶g̶i̶c̶o̶ que entienda que los efectos de las tecnologías son sólo inherentes de sus características materiales y de uso, ni tampoco en un ̶c̶o̶n̶s̶t̶r̶u̶c̶t̶i̶v̶i̶s̶m̶o̶ ̶s̶o̶c̶i̶a̶l̶ que desdeñe por completo dichas características rígidas de los objetos técnicos en aras de un entendimiento meramente político, moral, afectivo y estético de su uso e influencia. La agencia implicará, por lo tanto, formas de co-constitución entre lo humano y lo no-humano. Por ello, Stiegler entiende que el quién del hombre y el qué de la técnica son inseparables. Asimismo, entiende que la tecnología y los modos en que rearticulan nuestra atención desde la noción platónica –como crítico de la tecnología escritural que exterioriza y espacializa la memoria conduciendo a la pérdida de ésta en los propios individuos– de pharmakon en tanto que “is the thought that all exteriorisation leads to the possibility, not only for knowledge but for power, to take control of these processes of transindividuation (12)”, porque las mediación ejercida no sólo depende de su composición técnica como una visión determinista propondría. Para Stiegler, por ejemplo, las formas de adopción se tornan elementales para aminorar o expandir sus efectos: así como el pharmakon, la dosis hace la cura o el veneno. Sin embargo, como opina Eugenio Tiselli la dosis de la implementación tecnológica no debe ser pensada cuantitativamente: los efectos de la adopción de un objeto técnico pueden dosificarse por medio de adaptaciones divergentes que no correspondan a sus programas de acción –“[u]n primer sentido de mediación [...] es el de programa de acción, la serie de metas, pasos e intenciones que un agente puede describir en un relato como el de la historieta del arma (253)”– preestablecidos. Véase la carta escrita por Tiselli para Nadia Cortés:
En ese sentido, podríamos argumentar que ejemplos señalados en secciones anteriores como el problema que muestran los ensayos del libro Autorías encarnadas: Representaciones mediáticas del escritor/a es justamente que se centran en formas paradigmáticas que no cuestionan ni el soporte técnico de la autoría ni de su propia inscripción textual. Pensar mediáticamente la autoría tiene que ir mucho más allá de simplemente cuestionarse en qué poses o fondos fue fotografiado Mallarmé o cómo era convertido en un personaje Juan Rulfo al ser entrevistado por Joaquín Soler Serrano. Las mediaciones técnicas no sólo permiten nuevas formas mediales de presentar y representar la autoría individuada –en la medida que también lo hacen– sino que también, y más importante aún, alteran las posibilidades de emergencia de nuevas formas de autoría. Este proyecto busca, por lo tanto, articularse como un tecnotexto teorizado por N. Katherine Hayles (25) como:
Podemos considerar que cuando una autoría escritural interroga la inscripción tecnológica que permite su producción crea una reflexividad entre el mundo imaginativo y el aparato material encarnado como presencia física. Aquí es fundamental comprender que la materialidad no sólo debe entenderse desde la visión de los objetos técnicos a los que se refiere Stiegler a través de dos aclaraciones: primero, suscribimos al entendimiento de una materialidad performativa como la que enuncia Johanna Drucker en la medida en que (véase el subrayado del párrado 10):
Si Harman nos sugería que no es posible reducir un objeto sólo a través de sus relaciones factuales, tampoco se trata de reducirlo sólo a sus características intrínsecas. Segundo, la materialidad no debe sólo ser pensada desde las condiciones de la objetualidad técnica ya cajanegrizada porque, en palabras de Jussi Parikka “la materialidad de los medios comienza mucho antes de que los medios se conviertan en medios. En segundo lugar, y paralelamente a ello, necesitamos ser capaces de discutir sobre los medios que ya no son medios (82)”. Un análisis materialista que considere la agencia de lo no-humano debe, en ese sentido, entender que la rastreabilidad se despliega en distintas capas de la temporalidad que sobrepasan y anteceden lo humano mismo. Una computadora no es el objeto sustancial que tengo frente a mí y en el cual estoy (estuve) escribiendo estas palabras; una computadora también es el cobre utilizado en sus buses de comunicación que trasladan las instrucciones del teclado al procesador o el indio, aluminio y estaño que se requieren para fabricar su panel LCD; una computadora también es la suma de todas las cargas eléctricas retenidas en las celdas del SSD, fabricadas principalmente a base de silicio, que son traducibles a código binario; una computadora también es la suma de cargas eléctricas específica que almacena la edición Home de la licencia preinstalada del Sistema Operativo Windows. Aunque tampoco debemos comprender que su materialidad está enteramente dentro de su chasis porque sería una visión sustancial: debemos mirar relacionalmente a través de tiempos y espacios. Los más de 1500 litros de agua utilizados en su producción, los residuos sintéticos de ácido perfluorooctanoico (PFOA) –evidentemente nocivo para la salud– deprendidos del proceso de fotolitografía necesario para la creación de procesadores, hechos a base de silicio, compuestos por transistores que apenas si son 50 o 100 veces más grandes que un átomo de helio o los más de 4000 años que tarda una computadora en degradarse también son esta computadora. En este sentido, cuando referimos a lo no-humano también inscribimos al tiempo, al espacio, al mundo. Las redes de agenciamiento no deben implicar una homogenización de la realidad ni un ultrahumanismo que piense a los agentes no-humanos desde los límites de nuestras percepciones: el espacio de los estratos geológicos es indiscernible e inexperimentable para nosotros, el tiempo de las almejas de Islandia tampoco es el nuestro, basta con pensar, como sugiere Parikka, que incluso cualquier bolsa de basura que utilizamos y utilicemos a lo largo de nuestra vida tendrá una presencia mucho más larga que nuestra propia existencia (222).
Partir de un concepto como las naturalezas mediales de Parikka donde hay una doble articulación en la medida en que los medios traman y co-construyen nuestras percepciones sobre la Tierra al tiempo que los medios son posibles gracias a la Tierra misma refuerzan el alejamiento de las lógicas dualistas que separan lo natural de lo artificial, lo natural de lo cultural, etc. Pensar tanto en la mediación técnica y la forma en la que nos vemos mediados y mediamos a los soportes escriturales y su materialidad debería conducirnos a maneras de tramar la autoría que vayan más allá de los límites de nuestra subjetivación pero que no ignoren su agencia, una base de pensamiento posthumanista debe producir iteraciones posthumanas de la autoría: por ejemplo, como veremos en la segunda y la tercera parte, las autorías posthumanas ya no se anclan, necesariamente, en escrituras alfabéticas que apunten a significados, las autorías pueden devenir conceptuales, distribuidas; las autorías pueden emerger a velocidades subfenomenológicas tan aceleradas como en el procesamiento del código binario. Es objetivo de este trabajo visualizar esta apertura de las autorías hacia la materialidad, la agencia y la responsabilidad de lo no-humano.
Ir a la Parte 2 -
1
2024-04-17T23:45:36-07:00
Conglomerar Escrituras
23
blank
2024-04-24T19:05:33-07:00
El 5 y el 9 de enero de 2023 modifiqué la entrada en idioma español de Wikipedia Futbolista del año en Luxemburgo, agregando a un supuesto A. Tagle como ganador del trofeo en la temporada 2017-2018:
Si observamos el historial de revisiones que se han realizado posteriores a la información falsa de mi autoría, podemos ver que han sido otros dos autores quienes han hecho modificaciones sobre la entrada de Wikipedia:
El 22 de enero de 2024 NacaruBot eliminó algunos enlaces innecesarios, pero más interesante resulta el caso de BenjaBot, usuario que tiene su propia entrada en Wikipedia:
Benjabot es sólo uno de los de miles y miles de casos -en 2014 se estimaba que Wikipedia había aprobado el uso de por lo menos 1800 bots para la creación y corrección de entradas en idioma inglés- de intervenciones escriturales hechas por agentes no-humanos en internet. Éric Sadin señala que:
[u]n estudio llevado a cabo por la sociedad Incapsula -provedora de servidores seguros-, que se publicó en frebrero de 2012, concluyó que el 51% del conjunto del tráfico en Internet era generado por agentes no humanos: programas de hacking, envíos automáticos de spam y otros procedimientos automatizados; el 20% de este 51% fue juzgado "neutro", mientras que la mayoría del tráfico (un 31%) era potencionalmente maliciosa (31).
La generalizada automatización como parte de la lógica computacional ha hecho que los procesos de escritura, lectura y autoría escriturales estén imbricados entre una serie de diversos agentes para su funcionamiento en la red. A cada momento hay miles de bots leyéndose y corrigiéndose entre sí a la par que van aumentando la escritura depositada en internet. Andew Lih (105) muestra cómo la expansión y consolidación de Wikipedia en diversos idiomas no hubiera sido posible sin la implementación de bots, es decir a través de lecturas, escrituras y autorías no-humanas. Si el código regula, para Lih el bot es una suerte de patrullero informático. En este enclave socioténico, que Sadin llama administración digital del mundo, Katherine N. Hayles arguye que podríamos entender sobre un machine reading que:
[t]he controversies around “reading” suggest it is a pivotal term because its various uses are undergirded by different philosophical commitments. At one end of the spectrum, “reading” in the Traditional Humanities connotes sophisticated interpretations achieved through long years of scholarly study and immersion in primary texts. At the other end, “reading” implies a model that backgrounds human interpretation in favor of algorithms employing a minimum of assumptions about what results will prove interesting or important. The first position assumes that human interpretation constitutes the primary starting point, the other that human interpretation misleads and should be brought in after machines have “read” the material [...] The further one goes along the spectrum that ends with “machine reading,” the more one implicitly accepts the belief that large-scale multicausal events are caused by confluences that include a multitude of forces interacting simultaneously, many of which are nonhuman (29).
Las lecturas, escrituras y autorías no-humanas no sólo es que involucre que los ensamblajes técnicos pueden ejecutar dichos actos, sino que median también la forma en que nosotros las realizamos. La algoritmización personalizada de las redes sociales, las recomendaciones de Netflix, la segmentación de audiencias y hasta los precios dinámicos son formas en que la lectura, escritura y autoría no-humanas median sobre nosotros. Lev Manovich apunta que:
[c]omo los nuevos medios se crean, se distribuyen, se guardan y se archivan con ordenadores, cabe esperar quqe sea la lógica del ordenador la que influya de manera significativa en la tradicional lógica cultural de los medios. Es decir, cabe esperar que la capa informática afecta a la capa cultural. Las maneras en que el ordenador modela el mundo, representa los datos y nos permite trabajar; las operaciones fundamentales que hay detrás de todo programa informático (como buscar, concordar, clasificar y filtrar); y las convenciones de su interfaz -en resumen, lo que puede llamarse ontoogía, epistemología y pragmática del ordenador- influyen en la capa cultural de los nuevos medios, en su organización, en sus géneros emergentes y en sus contenidos (93).
El problema de esta supuesta omnipresencia de la lógica informática en la conformación de la capa cultural es que puede derivar en una postura demasiado inclinada a su inmanencia.El propio Manovich llama Cultural Analytics a una metodología de las llamadas, también por él, humanidades digitales que buscan entender el crecimiento exponencial de la cultura a través de las mismas herramientas informáticas con las que se crea. Por ejemplo, Manovich (119) da cuenta -a través de analizar a través de ordenadores toda la biblografía posible que encontró respecto de la pintura impresionista- de cómo sólo se utilizaban como ejemplos aproximadamente unas 140 pinturas principales para estudiar el impresionismo, aunque se tiene la certeza de 13,000 obras pintadas en esa época que pueden ser catalogadas como tal. Considera que un procesamiento que buscara patrones y que tuviera como conjunto de datos a todas las pinturas podría formar, por lo menos, una definición distinta de lo que es el estilo impresionista. Es una visión de la lectura, como apunta Hayles, que afirma a la interpretación humana como un posible punto de error, como una desviación a diferencia de la objetividad cuantificable del análisis de datos, entendida como forma de lectura no-humana. Manovich argumenta que "[i]t is only logical that media and digital culture studies and humanities are next to start approaching their subjects using quantification, mathematic models, and data visualization. The key reason in my view that this is both possible and inevitable is the new scale of cultural production, dissemination, and participation (25)". La visión de Manovich presupone que la lógica de la producción cultural sujeta a un entorno sociotécnico digital es aprehensible a través de la misma computabilidad. Veamos un ejemplo que podría reducir a las autorías escriturales tanto humanas como no-humanas de la misma manera.
Jorge Carrión generó un experimento que podría ser considerado como un caso de estudio para las cultural analytics de Manovich. En el libro Los campos electromagnéticos: teorías y prácticas de la escritura artificial un capítulo fue hecho a través de la implementación de inteligencia artificial. Por medio de la teconología GTP-2, y en colaboración con los técnicos de OpenAI, se entrenó a un modelo de lenguaje exclusivamente con todos los libros y artículos que el propio Carrión había escrito hasta la fecha y luego se le solicitó escribir sobre ciertos temas concretos, a este autor se le llamó Jorge Carrión Espejo. Si bien sólo funcionó como un ejercicio lúdico en que Carrión explora qué tanto pueden las nuevas inteligencias artificiales comprender, y volver patrones, a su escritura, no deja de existir una suerte de visión demasiado inmanente respecto de lo qué es la autoría. Carrión Espejo alimenta a la propia lógica que el Carrión humano describe como "[s]ólo importan el impacto y los metadatos. Todo el nuevo sistema se sostiene en los rastros, las correlaciones, las líneas de consumo que traza cada internatuta, cada lector, cada videoespectador. En el nuevo mundo del big data, por tanto, las obras o los contenidos son muchísimo menos importantes que las líneas de datos que construimos cada uno de nosotros (23)." Carrión Espejo es producto de una visión demasiado informacionalizada de la autoría, de la misma manera en que la autoría deviene metadato para la grandes corporaciones como Google Books o Amazon que Carrión define como megaconstrucciones algorítimas en la medida la función principal de la autoría es desribir, clasificar y catalogar otros datos.
Gary Hall critica la postura de Manovich, en la cual también puede entrar en ejercicio de Carrión Espejo, por ser demasiado inmanente y considerar que conceptos como estilo, autoría o la cultura misma pueden ser perfilados a través de los análisis de correlaciones que puede hacer un ordenador; califica a dicha postura como una especie de formalismo del siglo XXI (45). No negamos que la implementación de las tecnologías digitales pueda servirnos para la exploración de conceptos como los de escritura, lectura y autoría -véase la intención de este proyecto de investigar como un tecnotexto- aunque sí rechazamos la inclinación a suponer que la única vía para analizar la vasta cantidad de fenómenos culturales sea también escalando ciegamante nuestros procedimientos. Pero ¿cómo podemos alejarnos de la idea de que la cultura algoritmizada sólo puede ser comprendida en la algorimitzación del análisis? A través de la revisión de nuestro experimento con Raspvelarde Pi y desde nuestras ideas de agencia y materialidad buscaremos perfilar una vía distinta al formalismo de Manovich para explorar las autorías no-humanas, teniendo un énfasis en las digitalmente mediadas.
Carole Guesse afirma que "[t]he possibility of a posthuman author therefore depends on one´s own understanding of the nature of literature (31)", por lo que una investigación de la autoría escritural posthumana que atienda a la tecnicidad digital necesariamente tiene que indagar en las formas que toma la escritura no-humana. Por ejemplo, Janneke Adema, en su análisis posthumanista sobre el libro, sugiere que su versión impresa sirvió para el humanismo como una forma de fetichizar una visión "rational, individual, original, liberal humanist author, perceived as an autonomous agent responsible for knowledge creation" (9) que, como considera Barthes, sirvió a la teoría literaria como un estabilizador y fijador del lenguaje. Siguiendo lo propuesto por Scott Lash, descrito en el capítulo anterior, respecto de la velocidad comunicional inmediata de la información a diferencia de la secuencialidad discursiva, pensamos que esta diferenciación es clave para comprender los modos por los que puede operar la escritura no-humana y, por lo tanto, también sus autorías y cómo estas confrontan las estabilizaciones generadas por los modelos humanistas.
Lash sugiere que las temporalidades y velocidades comunicacionales previas a la digitalización permitían que la discursividad lograra ser reflexionada, fomentando la crítica. Es decir, este tipo de comunicación escritural sí que dependía de las estabilizaciones de los significados dada a través del autor. Desde Ferdinand de Saussure se ha contemplado una idea profundamente mentalista del significado como imagen mental y, por lo tanto, inclinada hacia la inmaterialidad. Desde una perspectiva que trata de comprender a la escrituras no-humanas, pensamos que no sólo es que el autor estabilize el significado, sino que la condición misma de significado estabiliza una visión de la escritura demasiado centrada en la expresividad lingüística humana. No podemos olvidar que la escritura humana también es una técnica y que, como afirma Janne Benett, "[h]umanos y no-humanos por igual dependen de un conjunto 'increíblemente complejo' de prótesis lingüísticas (93)". En esta dirección, es que proponemos a la noción de sentido, antes que la de significado, como una apertura a una comprensión de la escritura que se separe de una figuración lingüística y no material de la escritura.
Desde la posibilidad de existencia de escrituras y autorías no-humanas consideramos que el sentido puede asimilarse, especialmente, de cuatro maneras:- como percepción: el sentido como la capacidad física de mediar los estímulos que emergen en las intracciones con otros agentes.
- como orientación: el sentido como una forma de reconocimiento de dichas intracciones en el espacio y el tiempo.
- como desplazamiento: el sentido como movilidad material que conduce a través de las tendencias de las intracciones.
- como tendencia: el sentido como agenciamiento, como movimiento no mecanicista.
Por ejemplo, Jussi Parikka considera que:
En las historias que contamos está implicado mucho más que las palabras que usamos. Ellas cuentan las historias de los medios y la mediación, de la materialidad y la Tierra. Los relatos mismos son de una escala de duraciones geológicas en principio demasiado lentas como para que podamos aprehenderlas. Lo cual exige una comprensión del relato que es radicalmente diferente del significado habitual del contar historias con el que estamos familizarizados en las humanidades. Es probable que este relato contenga menos palabras y más de esa materia semiótica a-significante que una y otra vez impone su presencia, especialmente en la época actual de crisia a la que nos referimos como "cambio global" (51).
Más allá de sí coincidimos o no con la imposibilidad discursiva de la información que plantea Lash, y mediando sobre las maneras en las que puede existir la escritura no-humana, consideramos que esta supuesta imposibilidad no implica también una anulación de las historias. Las autorías no-humanas se hacen cargo de historias que no tienen porque implicar linealidad ni secuencialidad y, como apunta Parikka, operan a escalas de tiempo diferentes a las humanas. Proponemos, por lo tanto, que el significado como se ha trazado anteriormente es posible sólo en la primacía de una temporalidad humana, pero que no es un agente indispensable en la conformación de lecturas, escrituras ni autorías.
Serenella Iovino y Serpil Opperman exponen que el material ecocritism "argues that there is an implicit textuality in the becoming of material formations, and this textuality resides in the way the agentic dimension of matter expresses itself, as well ad in the way bodies emerge in the combined and simultaneous action of material dynamics and discursive practices (6-7)". Claire Colebrook ilustra esta perspectiva al considerar que la relación entre el Antropoceno y el archivo puede hacerse a través de la idea de fósil en cuanto huella o escritura material de un tiempo sin humanos. Sugiere, por lo tanto, que (véase subrayado azul de la página 24):
Tratar de diluclar que ni las autorías, escrituras y lecturas son acciones exlusivamente humanas podría servirnos para leer otras historias que se desenvuelven en otras temporalidades y qué sentido, qué orientación pueden sugerirnos. En esa medida es que buscamos pensar al sentido a través de los desplazamientos de la materialidad porque, como nos recuerda Bennett, "la agencia está ligada, a su vez, a la idea de una trayectoria, una direccionalidad o movimiento por el cual algo se aleja de un determinado lugar, aun cuando sea incierto o ni siquiera exista un otro lugar hacia el cual se dirige (87)". El problema de la rastreabilidad agencial es que entre más compleja es la red y las propiedades de los agentes que median, más complejo se vuelve también su seguimiento, la agencia vista como una forma de leer las escrituras no-humanas se cajanegriza.
Por ejemplo, esta misma página web también podría visualizarse de la siguiente manera:
This page references:
- 1 media/Geologia _thumb.jpg 2023-10-30T00:46:42-07:00 Una geología de los medios (Portada) 1 media/Geologia .jpg plain 2023-10-30T00:46:42-07:00