Autorías Escriturales Posthumanas

3.1 Escrituras, lecturas y autorías no-humanas digitalizadas

El presente capítulo busca llevar a cabo diversos análisis sobre las implicaciones que pueden darse al pensar las autorías escriturales desde el posthumanismo –centrándonos en los conceptos de agencia, materialidad y mediación técnica presentados anteriormente– tomando como referencias principales el experimento escritural hecho a partir de la poesía de Ramón López Velarde y los desplazamientos en Jerez, así como la implementación de la plataforma Scalar.edu. Para ello, proponemos cuatro secciones –en cuanto consideramos que estos temas fueron puntos cruciales a lo largo de nuestra relación con esta forma particular de escritura– que abordan la existencia de autorías no-humanas, la dependencia material y energética que tiene la autoría escritural, la expansión de los órdenes de la realidad donde puede emerger la autoría y, por último, la relación que puede haber entre la desapropiación y la apertura a pensar en formas de autoría más situadas. Este capítulo tiene la pretensión, pues, de abordar la desapropiación de Velarde, su configuración digital y su exposición en esta plataforma para desafiar convenciones orilladas a la propiedad y a la individuación autoral. Al mismo tiempo, mostraremos las complicaciones e inconvenientes de autorar en un entorno sociotécnico con un alto grado de tecnificación como el que se ha puesto de manifiesto en el capítulo anterior. 


Escrituras, lecturas y autorías no-humanas
El 5 y el 9 de enero de 2023 modifiqué la entrada Futbolista del año en Luxemburgo  en idioma español de la Wikipedia, agregando a un supuesto A. Tagle como ganador del trofeo en la temporada 2017-2018:



Si observamos el historial de revisiones que se han realizado posteriores a la información falsa de mi autoría, podemos ver que han sido otros dos autores quienes han hecho modificaciones a la entrada de Wikipedia:



El 22 de enero de 2024 NacaruBot eliminó algunos enlaces innecesarios, pero más interesante resulta el caso de BenjaBot, usuario que tiene su propia entrada en Wikipedia:



Benjabot es sólo uno de los de miles y miles de casos –en 2014 se estimaba que Wikipedia había aprobado el uso de por lo menos 1800 bots para la creación y corrección de entradas en idioma inglés– de intervenciones escriturales hechas por agentes no-humanos en internet. Éric Sadin señala que: 

[u]n estudio llevado a cabo por la sociedad Incapsula –proveedora de servidores seguros–, que se publicó en febrero de 2012, concluyó que el 51% del conjunto del tráfico en Internet era generado por agentes no humanos: programas de hacking, envíos automáticos de spam y otros procedimientos automatizados; el 20% de este 51% fue juzgado "neutro", mientras que la mayoría del tráfico (un 31%) era potencialmente maliciosa (31).


La generalizada automatización como parte de la lógica computacional ha hecho que los procesos de escritura, lectura y autoría escriturales estén imbricados entre una serie de diversos agentes para su funcionamiento en la red. A cada momento hay miles de bots leyéndose y corrigiéndose entre sí a la par que van aumentando la escritura depositada en internet. Andew Lih (105) muestra cómo la expansión y consolidación de Wikipedia en diversos idiomas no hubiera sido posible sin la implementación de bots, es decir, a través de lecturas, escrituras y autorías no-humanas. Si el código regula, para Lih el bot es una suerte de patrullero informático. En este enclave sociotécnico, que Sadin llama administración digital del mundo, Katherine N. Hayles argumenta que podríamos entender sobre un machine reading que:

[t]he controversies around “reading” suggest it is a pivotal term because its various uses are undergirded by different philosophical commitments. At one end of the spectrum, “reading” in the Traditional Humanities connotes sophisticated interpretations achieved through long years of scholarly study and immersion in primary texts. At the other end, “reading” implies a model that backgrounds human interpretation in favor of algorithms employing a minimum of assumptions about what results will prove interesting or important. The first position assumes that human interpretation constitutes the primary starting point, the other that human interpretation misleads and should be brought in after machines have “read” the material [...] The further one goes along the spectrum that ends with “machine reading,” the more one implicitly accepts the belief that large-scale multicausal events are caused by confluences that include a multitude of forces interacting simultaneously, many of which are nonhuman (29)


La existencia de lecturas, escrituras y autorías no-humanas no sólo involucra que los ensamblajes técnicos pueden ejecutar dichos actos, sino que median también la forma en que nosotros los realizamos. La algoritmización personalizada de las redes sociales, las recomendaciones de Netflix, la segmentación de audiencias y hasta los precios dinámicos son formas en que la lectura, escritura y autoría no-humanas median nuestra existencia. Al respecto, Lev Manovich apunta que:

[c]omo los nuevos medios se crean, se distribuyen, se guardan y se archivan con ordenadores, cabe esperar que sea la lógica del ordenador la que influya de manera significativa en la tradicional lógica cultural de los medios. Es decir, cabe esperar que la capa informática afecte a la capa cultural. Las maneras en que el ordenador modela el mundo, representa los datos y nos permite trabajar; las operaciones fundamentales que hay detrás de todo programa informático (como buscar, concordar, clasificar y filtrar); y las convenciones de su interfaz –en resumen, lo que puede llamarse ontología, epistemología y pragmática del ordenador– influyen en la capa cultural de los nuevos medios, en su organización, en sus géneros emergentes y en sus contenidos (93).


El problema de esta supuesta omnipresencia de la lógica informática en la conformación de la capa cultural es que puede derivar en una postura demasiado inclinada a su inmanencia. El propio Manovich llama Cultural Analytics a una metodología de las denominadas, también por él, humanidades digitales que buscan entender el crecimiento exponencial de la cultura a través de las mismas herramientas informáticas con las que se crea. Por ejemplo, Manovich (119) da cuenta de cómo James Cutting investigó –a través de analizar por medio de ordenadores toda la bibliografía posible que encontró respecto de la pintura impresionista– cómo sólo se utilizaban como ejemplos aproximadamente 140 pinturas principales para estudiar el impresionismo, aunque se tiene la certeza de 13,000 obras pintadas en esa época que pueden ser catalogadas como tal. Manovich considera que un procesamiento que buscara patrones y que tuviera como conjunto de datos a todas las pinturas podría formar, por lo menos, una definición distinta de lo que es el estilo impresionista. Es una visión de la lectura, como apunta Hayles, que afirma la interpretación humana como un posible punto de error, como una desviación a diferencia de la objetividad cuantificable del análisis de datos, entendida como forma de lectura no-humana. Manovich argumenta que "[i]t is only logical that media and digital culture studies and humanities are next to start approaching their subjects using quantification, mathematic models, and data visualization. The key reason in my view that this is both possible and inevitable is the new scale of cultural production, dissemination, and participation (25)". La visión de Manovich presupone que la lógica de la producción cultural sujeta a un entorno sociotécnico digital es aprehensible a través de la misma computabilidad. Veamos un ejemplo que podría equiparar a las autorías escriturales tanto humanas como no-humanas de la misma manera. 
         Jorge Carrión generó un experimento que podría ser considerado como un caso de estudio para las Cultural Analytics de Manovich. En el libro Los campos electromagnéticos: teorías y prácticas de la escritura artificial un capítulo fue hecho a través de la implementación de inteligencia artificial. Por medio de la tecnología GTP-2, y en colaboración con los técnicos de OpenAI, se entrenó a un modelo de lenguaje exclusivamente con todos los libros y artículos que el propio Carrión había escrito hasta la fecha y luego se le solicitó escribir sobre ciertos temas concretos, a este autor se le llamó Jorge Carrión Espejo. Si bien sólo funcionó como un ejercicio lúdico en el que Carrión exploraba qué tanto podían las nuevas inteligencias artificiales comprender a, y volver patrones, su escritura, no deja de existir una suerte de visión demasiado datificada respecto de lo qué es la autoría. Carrión Espejo alimenta la propia lógica que el Carrión humano describe como "[s]ólo importan el impacto y los metadatos. Todo el nuevo sistema se sostiene en los rastros, las correlaciones, las líneas de consumo que traza cada internauta, cada lector, cada videoespectador. En el nuevo mundo del big data, por tanto, las obras o los contenidos son muchísimo menos importantes que las líneas de datos que construimos cada uno de nosotros (23)." Carrión Espejo es producto de una visión demasiado informacionalizada de la autoría, de la misma manera en que la autoría deviene metadato para la grandes corporaciones como Google Books o Amazon que Carrión define como megaconstrucciones algorítmicas en la medida en que la función principal de la autoría es describir, clasificar y catalogar otros datos.
          Gary Hall critica la postura de Manovich, en la cual también puede entrar en ejercicio de Carrión Espejo, por ser demasiado inmanente –entendiendo por inmanencia el supuesto de que los fenómenos culturales pueden ser explicados y conceptualizados como unidades definidas sin la necesidad de integrar lo que los rodea en el análisis– y considerar que conceptos como estilo, autoría o la cultura misma pueden ser perfilados a través de los análisis de correlaciones que puede hacer un ordenador; y acaba por calificar a dicha postura como una especie de formalismo del siglo XXI (45). No negamos que la implementación de las tecnologías digitales pueda servirnos para la exploración de conceptos como los de escritura, lectura y autoría –véase la intención de este proyecto de investigar como un tecnotexto– aunque sí rechazamos la inclinación a suponer que la única vía para analizar la vasta cantidad de fenómenos culturales sea también escalando ciegamente nuestros procedimientos.  Pero, ¿cómo podemos alejarnos de la idea de que la cultura algoritmizada sólo puede ser comprendida en la algoritmización misma del análisis? A través de la revisión de nuestro experimento con Raspvelarde Pi y desde nuestras ideas de agencia y materialidad buscaremos perfilar una vía distinta al formalismo de Manovich para explorar las autorías no-humanas, haciendo un énfasis en las digitalmente mediadas.
          Parece que la visión que tiene Manovich sobre los datos es, y en esta dirección apunta la crítica de Hall, demasiado abstracta en cuanto el dato parece ser una suerte de material que contiene sólo la posibilidad de su procesamiento, pero que su historicidad previa carece de importancia para su computabilidad. La hipotética generación esquemática de patrones de líneas, perspectiva, colorimetría que den cuenta del estilo impresionista parte de una base de pensamiento que cree que los fenómenos pueden ser explicados por sí mismos si se tiene un número de casos lo suficientemente grande para ser perfilados. Es sustantivar dichos fenómenos al desprenderlos de cualquier tipo de relación que no esté contenida en las obras mismas: desde sus creadores, innovaciones técnicas, influencia de los críticos, recepción del público, modelos de circulación de las obras, etcétera. Así, esta visión de las posibilidades de la computación para estudiar la cultura parece ser una suerte de búsqueda de restitución de la autonomía perdida que explora Josefina Ludmer. Consideramos que, si se pretende hacer uso de las tecnologías digitales, es fundamental situar a los datos, que en el proceso de darles forma, atendamos a sus historias previas. Por ejemplo, de las 1564 líneas utilizadas para la desapropiación de Velarde, 94 de ellas contienen comillas que apuntan a otras escrituras: informes, otras notas periodísticas, testimonios de personas desplazadas que señalan a otras materialidades, agencias y relaciones que no están estrictamente contenidas en el aparato escritural mismo pero que lo sostienen. Si a lo largo de la investigación hemos sugerido que la confrontación a la autoría individuada puede darse por medio de situar las prácticas y la base de pensamiento de la cual se parte, también creemos que los datos tienen que ser situados y no ser tratados como entidades imparciales que no arrastran tras de sí algún tipo de inclinación. De igual forma, se vuelve necesario comprender que los modos en que se dan los procesos de escribir, leer y autorar son diversos para los agentes que están relacionándose. Comprender a las autorías escriturales posthumanas requiere comprender estas diversidades y sus mediaciones. 
          Carole Guesse afirma que "[t]he possibility of a posthuman author therefore depends on one’s own understanding of the nature of literature (31)", por lo que una investigación de la autoría escritural posthumana que atienda a la tecnicidad digital necesariamente tiene que indagar en las formas que toma la escritura no-humana. Por ejemplo, Janneke Adema, en su análisis posthumanista sobre el libro, sugiere que su versión impresa sirvió para el humanismo como una forma de fetichizar una visión “rational, individual, original, liberal humanist author, perceived as an autonomous agent responsible for knowledge creation (9)” que, como considera Barthes, sirvió a la teoría literaria como un estabilizador y fijador del lenguaje. Siguiendo lo propuesto por Scott Lash, descrito en el capítulo anterior, respecto de la velocidad comunicacional inmediata de la información a diferencia de la secuencialidad discursiva, pensamos que esta diferenciación es clave para comprender los modos por los que puede operar la escritura no-humana y, por lo tanto, también sus autorías y cómo estas confrontan las estabilizaciones generadas por los modelos humanistas. 
          Lash (11) sugiere que las temporalidades y velocidades comunicacionales previas a la digitalización permitían que la discursividad lograra ser reflexionada, fomentando la crítica. Es decir, este tipo de comunicación escritural sí que dependía de las estabilizaciones de los significados dadas a través del autor. Desde Ferdinand de Saussure se ha contemplado una idea del significado como imagen mental y, por lo tanto, inclinada hacia la inmaterialidad. Desde una perspectiva que trata de comprender las escrituras no-humanas, pensamos que no sólo es que el autor estabilice el significado, sino que la condición misma de significado estabiliza una visión de la escritura demasiado centrada en la expresividad lingüística humana. No podemos olvidar que la escritura humana también es una técnica y que, como afirma Janne Bennett, "[h]umanos y no-humanos por igual dependen de un conjunto 'increíblemente complejo' de prótesis lingüísticas (93)". En esta dirección, proponemos la noción de sentido, antes que la de significado, como una apertura a una comprensión de la escritura que se separe de una figuración lingüística y no material de la escritura. Desde la posibilidad de existencia de escrituras y autorías no-humanas consideramos que el sentido puede asimilarse, especialmente, de cuatro maneras:
Por ejemplo, Jussi Parikka considera que:

en las historias que contamos está implicado mucho más que las palabras que usamos. Ellas cuentan las historias de los medios y la mediación, de la materialidad y la Tierra. Los relatos mismos son de una escala de duraciones geológicas en principio demasiado lentas como para que podamos aprehenderlas. Lo cual exige una comprensión del relato que es radicalmente diferente del significado habitual del contar historias con el que estamos familiarizados en las humanidades. Es probable que este relato contenga menos palabras y más de esa materia semiótica a-significante que una y otra vez impone su presencia, especialmente en la época actual de crisis a la que nos referimos como "cambio global" (51).


Más allá de si coincidimos o no con la imposibilidad discursiva de la información que plantea Lash, y mediando sobre las maneras en las que puede existir la escritura no-humana, consideramos que esta supuesta imposibilidad no implica una anulación de las historias. Las autorías no-humanas se hacen cargo de historias que no tienen por qué implicar linealidad ni secuencialidad y, como apunta Parikka, operan a escalas de tiempo diferentes a las humanas. Proponemos, por lo tanto, que el significado como se ha trazado anteriormente es posible sólo en la primacía de una temporalidad humana, pero que no es un agente indispensable en la conformación de lecturas, escrituras ni autorías que operan a otras escalas.
         Serenella Iovino y Serpil Opperman exponen que el material ecocritism "argues that there is an implicit textuality in the becoming of material formations, and this textuality resides in the way the agentic dimension of matter expresses itself, as well as in the way bodies emerge in the combined and simultaneous action of material dynamics and discursive practices (6-7)". Claire Colebrook ilustra esta perspectiva al considerar que la relación entre el Antropoceno y el archivo puede hacerse a través de la idea de fósil en cuanto huella o escritura material de un tiempo sin humanos. Sugiere, por lo tanto, que (véase subrayado azul de la página 24):



Tratar de dilucidar que ni las autorías, escrituras y lecturas son acciones exclusivamente humanas podría servirnos para leer otras historias que se desenvuelven en otras temporalidades y qué sentido, qué orientación pueden sugerirnos. En esa medida buscamos pensar el sentido a través de los desplazamientos de la materialidad porque, como nos recuerda Bennett, "la agencia está ligada, a su vez, a la idea de una trayectoria, una direccionalidad o movimiento por el cual algo se aleja de un determinado lugar, aun cuando sea incierto o ni siquiera exista un otro lugar hacia el cual se dirige (87)". Al tratar de comprender la mediación digital en la escritura, lectura y autoría, creemos que se da el problema de que la rastreabilidad agencial entre más compleja es la red y las propiedades de los agentes que median, más complejo se vuelve también su seguimiento, la agencia vista como una forma de leer las escrituras no-humanas se cajanegriza. Por ejemplo, esta misma página web también podría visualizarse de la siguiente manera (deslizar la página hasta el final):



Siguiendo a Colebrook, pareciera que la escritura no-humana de los ordenadores podría seguir funcionando bajo una sintaxis supuestamente humana, pero realmente sólo es una presentación gráfica de desplazamientos de sentido que operan a escalas atómicas. El código escrito para el experimento mostrado en el capítulo anterior es una traducción, como lo entiende Bruno Latour, que permite cierto grado de legibilidad para el usuario y su mediación, pero no es la escritura misma del ordenador. Sin embargo, las maneras por las que podemos entender el sentido de la escritura no-humana son susceptibles de ser situadas y contextualizadas. Así, podríamos entender que cuando el sentido actúa informacionalmente, como afirma Lash,

[l]o que sucede es el pasaje de un registro de significado a un registro de operacionalidad [...] La cuestión no es tanto qué significa; es cómo funciona. El significado y la operacionalidad son "lógicas del sentido". La lógica del sentido es lo que Pierre Bourdieu llama sens pratique: modos de orientarnos en el mundo. La idea puede ampliarse –como lo hace Henri Lefebvre (1986)– a los modos de orientarse en el mundo de los no-humanos. Hoy nos orientamos en él –a menudo en conjunción con las máquinas de información y comunicación– según una lógica del sentido, un sens pratique que acaso deba menos al significado que a la operacionalidad (357-358).


Así, ni el código de Raspvelarde Pi como tampoco la base de datos –por más que su escritura sea humana y haya sido escrita originalmente para ser leída en esos términos– funcionan a través del significado. La automatización, basada en la aleatoriedad computacional, deriva en que pueda diluirse una condición fundamental para la estabilización de los significados: la intencionalidad, la teoría literaria hablaría de intentio auctoris. Manovich piensa que "[l]a codificación numérica de los medios [...] y la estructura modular de sus objetos [...] permiten automatizar muchas de las operaciones implicadas en su creación, manipulación y acceso. De ahí que pueda eliminarse la intencionalidad humana del proceso creativo, al menos en parte (77)". El producto resultante En tu casa desierta: una desapropiación de Ramón López Velarde sí que puede leerse con una noción de intencionalidad y significado, pero los procedimientos tanto de lectura, escritura y autoría previos no. El propio Manovich también señala que "[s]uele decirse que el usuario de un programa interactivo arbóreo se convierte en su coautor (182)" que funciona bajo una lógica de la selección (184), como en este caso a través de la conformación de la base de datos. 
          Sin embargo, que las escrituras digitales no operen a través de significados lingüísticos no implica que sus autorías tengan una total ausencia de estos. Las mediaciones nunca son unidireccionales y en la imbricación de heterogéneos agentes es posible que –en diversas capas y en diferentes temporalidades– las autorías posthumanas, en su relacionabilidad, incluyan propiedades contrapuestas. Así, el código de Raspvelarde Pi tiene una sintaxis humana, pero una lectura no-humana, mientras que En tu casa desierta: una desapropiación de Ramón López Velarde tuvo un proceso de escritura no-humano pero su ordenamiento fue dirigido hacia una legibilidad humana. Por ello creemos que la idea de sentido puede funcionar como un nodo que reúna una comprensión de las autorías no-humanas. Aunque sea a diferentes escalas, tanto autorías humanas como no-humanas se manifiestan en la materia y dejan tras de sí un rastro, una huella, que puede ser seguida, leída. Si la pregunta por la autoría se ha formulado como ¿de quién es esto?, ¿quién lo creó?, ¿cuál fue su intención?, proponemos que también pudiera formularse como ¿de dónde viene?, ¿hacía donde conduce? Tratar de capturar los sentidos hacia los que apuntan las autorías no-humanas es invitarnos a orientarnos en este mundo de una forma menos centralizada en nuestra única intención. Atender a otras autorías es apuntar a la relación que establecimos con otros agentes en pasados remotos, pero también hacia propuestas de mundos futuribles menos proyectados desde nosotros. 
          Teorizar a través de una filosofía relacional, como la posthumana, nos permite advertir la imposibilidad de sustancializar la autoría en un único agente. Así, escrituras, lecturas y autorías humanas y no-humanas están en un constante proceso de mediación. Las eventuales emergencias de las autorías escriturales, como un proceso siempre relacional, se darían a través de su distribución entre heterogéneos agentes. Aunque, como Graham Harman indica "[c]rear algo no quiere decir ver a través de su profundidad (188)", y mientras más cajanegrizadas estén las diferentes tecnologías escriturales que participan, también sucede una cajanegrización de la autoría escritural. Las autorías escriturales posthumanas, al operar bajo un régimen digital, se abren hacia su distribución y descentralización humana, pero también asumiendo un grado de opacidad técnica. Como veremos con detenimiento posteriormente, es tarea de las prácticas posthumanistas buscar modos que puedan descajanegrizar este tipo de autorías escriturales.

This page has paths:

This page references: