Wed, 30 Oct 2024 in La Palabra
Meta-literatura en el Algoriceno: explorando las fronteras de la inteligencia artificial
Resumen
Este artículo explora la posible actividad creativa llevada a cabo por las nuevas inteligencias artificiales generativas de texto. Después de estudiar los fundamentos históricos, filosóficos y metodológicos del programa de investigación en inteligencia artificial, como LongWriter, concluye que no existe algoritmo para la creatividad literaria. La inteligencia artificial se está convirtiendo en un componente integral de nuestra sociedad y cultura, pero hay aspectos que no pueden ser computados ni replicados por algoritmos. La inteligencia artificial ha avanzado significativamente gracias al mayor poder de computación de las máquinas, pero todavía no es capaz de simular actividades humanas muy significativas, como el pensamiento abductivo. Los algoritmos no cubren la totalidad de las actividades humanas posibles. La meta-literatura es un fenómeno que escapa a la formalización: un proceso irreductible que genera fragmentos múltiples, cambiantes, híbridos, móviles, meta-literarios. Con estos supuestos se puede elaborar una nueva teoría de la literatura a la altura de la era de la inteligencia artificial.
Main Text
Introducción, propósito y metodología1
La inteligencia computacional ha favorecido la creación de sociedades digitalizadas (microprocesador, ordenador personal, internet y smartphone) que han sido la antesala de la era de la inteligencia artificial (IA). Esta "nueva era" promete cambiar la forma en que las personas trabajan, aprenden, se comunican y son atendidas (Gates). Nuevos desarrollos que no solo modificarán los modos de producción de información y conocimiento, sino también la manera como los humanos escriben literatura. Existen proyectos de investigación que han presentado grandes modelos de lenguaje, Large Language Model (LLM), que pueden generar salidas de texto de más de diez mil palabras. Es el caso de LongWriter, "capaz de elaborar un libro de mediana longitud y presentarlo en una sola respuesta" (Márquez).
Estos avances nos llevan a formular la siguiente cuestión: ¿Puede la creatividad literaria verse opacada por las nuevas inteligencias artificiales generativas de texto? La creatividad es uno de los aspectos más complejos de la inteligencia humana. Cuando las actuales IA producen imágenes, música o textos, lo hacen basándose en patrones y datos preexistentes. La creatividad humana implica un tipo de pensamiento que no se basa únicamente en datos previos. Si pensar es desencadenar inferencias, ¿todo tipo de inferencia es computable?, ¿pueden desarrollarse los algoritmos de la creatividad? La respuesta afirmativa a estas cuestiones implicaría desarrollar sistemas computacionales capaces de comportarse como sistemas cognitivos, es decir, exhibiendo el comportamiento creativo que las mentes humanas muestran. Pero la IA que impulsa los chatbots está todavía muy lejos de la profundidad y riqueza de la mente humana. El programa de investigación en inteligencia artificial general (IAG) busca producir "personas artificiales". Pero si los modelos matemáticos de la mente son "incompletos" o "indecidibles" podrían no ser una realidad.
En Ontohackers: Radical Movement Philosophy in the Age of Extinctions and Algorithms, Jaime del Val desarrolla las siguientes definiciones de inteligencia, pensamiento y lógica. La inteligencia es la capacidad de sostener la variación en un equilibrio de consistencia y apertura. El pensamiento es la dinámica particular de un campo corporal. El pensamiento lógico y reflexivo es una dinámica de campos lineales y autorreferenciales que tienden a la reducción. Pero el cuerpo es un campo de infinitas dinámicas. Cada práctica -como la danza, la pintura, tocar un instrumento musical, etc.- es una dinámica propioceptiva diferente y un modo de pensar del cuerpo. La inteligencia corporal (IC) apunta a modos de pensamiento corporales plurales que no se reducen a una inteligencia entendida principalmente como velocidad de procesamiento de información. A partir de estas reflexiones, se propone una meta-literatura como un espacio no lineal, una escritura abierta a nuevas relaciones insospechadas. Esta conectividad generaría un enjambre irreductible a las formas algorítmicas.
El prefijo meta- "implica entre, relacionalidad, pero también ir más allá, exceder, incipiente, mutar" (del Val, Ontohackers 54). En este sentido, se afirma que, en esta nueva era de la IA, las prácticas meta-literarias son una oportunidad para hacer de la literatura un movimiento nuevo que acceda a mundos inexplorados, un movimiento completamente distinto de las objetivaciones algorítmicas que producen las actuales IA. Vivimos en el "Algoriceno o Morfoceno, la época geológica del devenir calculable y del devenir patrón de movimiento, sujeto a la coreografía y la codificación" (del Val, Ontohackers 139). Frente al Antropoceno o al Capitaloceno, el Algoriceno sería una forma más adecuada para conceptualizar "the ontology of capture and modulation systems at operation in the planet over millenia, as collective mode of organization that tends to reduce complexity of movements to calculable pattern" (del Val, Ontohacking 187). El Algoriceno también puede ser leído como una era "where movements-perceptions, individual and social bodies and architectures become increasingly geometric and algorithmic, starting before ancient Greece with gridded textiles or cities and expanding exponentially in digital culture" (del Val, Neither Human nor Cyborg 333). Sin embargo, a través de las prácticas meta-literarias es posible construir agenciamientos no imaginados y mundos imprevisibles.
Este artículo tiene la siguiente estructura. En el primer apartado, titulado Contexto y límites de la inteligencia artificial, se exploran algunos de los aspectos históricos más significativos del programa de investigación en IA. Este conjunto de ideas, autores y eventos nos ayudan a contextualizar los límites de la racionalidad computacional. Los chatbots de IA han mejorado notablemente en los últimos años; ahora son capaces de mantener conversaciones largas y complejas, y de procesar mayores inputs de texto. Sin embargo, la generación de literatura artificial se basa en patrones y datos preexistentes. La creatividad, la combinación de ideas de forma novedosa, no se centra únicamente en datos previos. Este planteamiento nos obligará a estudiar si es posible un modelo mecánico de la mente capaz de implementar actividades creativas.
El segundo apartado, titulado Límites de la inteligencia artificial: gatos, mitos y máquinas, profundiza en las inferencias abductivas como límite de la IA. El pensamiento abductivo y el pensamiento creativo están estrechamente relacionados. Ambos implican la generación de nuevas ideas que no se derivan directamente de datos previos o patrones establecidos. Ambos pensamientos requieren la exploración de vías divergentes de pensamiento, dando lugar a la emergencia de elementos novedosos.
En el tercer apartado, titulado Visiones contrapuestas: el futuro de la inteligencia artificial general, se describen distintos planteamientos alrededor de la posibilidad de desarrollar entidades artificiales capaces de desarrollar las actividades propias de los sistemas cognitivos encarnados. En la actualidad, estamos lejos de simular las actividades creativas propias de los cuerpos humanos, pero ¿podrán simularse en un futuro próximo? La singularidad tecnológica es una hipótesis filosófica que sugiere que el programa de investigación en IA desencadenará un crecimiento tecnológico explosivo e impredecible, transformando radicalmente la sociedad humana.
Finalmente, en La literatura como fenómeno meta-estético, se establecen las directrices de una nueva teoría meta-literaria. Se describe la meta-literatura como fenómeno creativo que rompe con formas de escritura previsibles, lineales, mecánicas o probabilísticas. La meta-literatura es un movimiento irreductible a los procesos de codificación algorítmica, variación perpetua de formas, patrones y trayectorias de escritura.
Contexto y límites de la inteligencia artificial
La integración de las tecnologías digitales en múltiples sectores económicos está transformando los procesos productivos (Kagermann), modificando de forma revolucionaria nuestras vidas (Elliott). La transformación digital significa nuevas soluciones a viejos problemas, pero también nuevos retos cuya respuesta debe ser imaginada, construida y experimentada. Los dispositivos inteligentes y las redes de comunicación digital han generado un nuevo tecnosistema inteligente (Kashef, Visvizi y Troisi). Todo este proceso evolutivo de cambio tecnológico requiere de una breve contextualización histórica. Las innovaciones tecnológicas son desencadenantes de revoluciones industriales, con progresivos incrementos de productividad y progreso material humano (Schwab). Las revoluciones industriales se caracterizan por originar una nueva relación del ser humano con la tecnología, lo que en consecuencia permite nuevas formas de resolver problemas y de "percibir, actuar y ser" (Philbeck y Davis 17).
Estos cambios tienen siempre un coste asociado: consecuencias negativas imprevistas o asumidas por los beneficios logrados. El genio de las matemáticas de origen húngaro, John von Neumann, ya hacía referencia en su pensamiento a esta doble cara de la tecnología. Las tecnologías "are always constructive and beneficial, directly or indirectly. Yet their consequences tend to increase instability" (von Neumann, Compendium 507). La tecnología resuelve problemas, pero también genera inestabilidad. Sin embargo, la tecnología no debería prohibirse por miedo a dicha inestabilidad, "prohibition of technology (invention and development, which are hardly separable from underlying scientific inquiry), is contrary to the whole ethos of the industrial age" (516). Para von Neumann, la solución a esta situación descansa en tres cualidades o valores: "patience, flexibility, intelligence" (519)2.
La tecnología ha evolucionado rápidamente "since the First Industrial Revolution where water and steam power mechanised production, the Second Industrial Revolution where electricity increased production still further, and the Third Industrial Revolution which introduced digital technologies including AI" (Boddington 36). Hoy vivimos las posibilidades abiertas por la Tercera Revolución Industrial, la revolución informática, la revolución digital. Pero sobre esta transformación digital se estaría desarrollando una Cuarta Revolución Industrial "where interconnections between digital, physical, and biological technologies accelerate industrial and social changes" (36). La IA sería uno de sus elementos definitorios.
El término "inteligencia artificial" se generalizó tras la Escuela de Verano de Dartmouth de 1956, celebrada en Hanover, New Hampshire (McCarthy et al.). Dicho encuentro fue organizado por John McCarthy, y en ella participaron Marvin Minsky, Nathaniel Rochester, Claude Shannon, Julian Bigelow, Ray Solomonoff, John Holland, Oliver Selfridge, Allen Newell y Herbert Simon. Los progresos realizados en esta nueva disciplina durante los años posteriores "were made by the original group members or their students" (Crevier 49). Algunos consideran que el término nos predispone a pensar que el objetivo de este programa es imitar a la inteligencia humana, para lo cual sería más apropiado hablar de "machine learning" (Boddington 92). Pero, ¿pueden ser modelizados todos los aspectos de la mente humana? ¿Podemos construir una máquina artificial que implemente un programa capaz de generar una obra creativa y original? Más adelante intentaremos dar respuesta a estas preguntas.
Si bien el programa de investigación en IA se remonta a la Conferencia de Dartmouth, no puede entenderse sin el conjunto de ideas que sentaron las bases de su aparición. Dicho campo de la informática, que trata de diseñar máquinas que logren resolver problemas de manera similar a como los resuelve la mente humana, es deudor del desarrollo de la lógica. Aristóteles trató de codificar un tipo de razonamiento basado en silogismos, dando inicio a la lógica como campo de estudio. Pero el lenguaje natural u ordinario tiene limitaciones; por lo tanto, fue necesario desarrollar un lenguaje formal. Leibniz intentó sustituir la argumentación por el cálculo planteando la posibilidad de elaborar un lenguaje perfectamente lógico. Retomando el proyecto de Llull (el misionero, filósofo y teólogo español del siglo XIII que trató de generar ideas por medios mecánicos), Leibniz se propuso formalizar completamente el pensamiento, aunque no lo consiguió: "expressing knowledge and reasoning about the common sense world in mathematical logic has entailed difficulties that seem to require extensions of the basic concepts of logic, and these extensions are only beginning to develop" (McCarthy 298).
Pero el ideal siguió en pie. El siglo XIX vería la renovación de la lógica tras siglos de estancamiento. George Boole pensó que el razonamiento podía ser expresado de forma simbólica (Gasser). Boole continuó el proyecto de Leibniz de crear una lógica verdaderamente matemática que sustituyera el razonamiento ordinario por el cálculo simbólico. En George Boole se encuentran "the first recognizable glimmerings of the logic that would later be implemented into computers" (Crevier 16). En su Investigación aparecen los operadores lógicos que permiten combinar proposiciones lógicas para formar otras proposiciones. Casi un siglo después, Claude Shannon aplicaría el álgebra de Boole a los circuitos de conmutación eléctrica, proporcionando el fundamento de los ordenadores modernos, "Boole's ideas supplied the basis for Claude Shannon's analysis of switching circuits, which, as I have described, makes up the theoretical foundation for all modern computers" (Crevier 18).
La semejanza entre el cerebro humano y los ordenadores inspiró a científicos e ingenieros a reflexionar sobre el funcionamiento del cerebro humano y su posible reproducción o simulación. Para superar las interminables discusiones conceptuales sobre "qué significa pensar", Alan Turing propuso un test para determinar si una máquina puede o no puede pensar. Pero, en realidad, Turing entendía el pensamiento como la resolución de problemas cerrados, computables y mecanizables. Cuanto más definido, riguroso y formal sea el problema, más fácil será programar una máquina que lo resuelva y pase el test. Es decir, Turing utilizó una definición excesivamente estrecha de inteligencia, "Turing's great genius, and his great error, was in thinking that human intelligence reduces to problem-solving" (Larson 23). Además de resolver y aprender a resolver problemas, es necesario identificar otras actividades para comprender, en todo su abanico de posibilidades, lo que hacen los cuerpos humanos. La IA se desarrolló con la voluntad de construir, mediante el razonamiento computacional, un modelo reductivo de inteligencia basado en el cálculo estadístico, la manipulación de símbolos abstractos y la resolución de problemas. Es decir, un modelo legítimo pero muy reductivo del funcionamiento del pensamiento.
La meta final del programa de investigación en IA consistiría en construir una mente artificial capaz de llevar a cabo todo tipo de procesos mentales. En The Computer and the Brain, John von Neumann se preguntó por el lenguaje primario que utiliza nuestro sistema nervioso central. Concluyó que dicho lenguaje no puede diferir sustancialmente "form what we consiously and explicity consider as mathematics" (von Neumann 82). Los cerebros serían complicados ordenadores biológicos, y podrían construirse máquinas que imitasen este complejo mecanismo. Incluso, no sería necesaria la base biológica: cualquier sustrato sería suficiente siempre y cuando se ejecute el software adecuado que genere estados mentales. Es la hipótesis de una conciencia artificial independiente del sustrato material de implementación: carbono o silicio, lo que cuenta es el "programa" y no la maquinaria que lo ejecuta, es decir, la estructura y no la materia (Churchland y Churchland). Pero, ¿tiene límites el mecanicismo de lo mental? ¿Todos los procesos mentales son computables? ¿Es el cerebro humano una máquina Turing-computable?
Si una máquina de Turing puede cubrir todo tipo de actividades mentales, entonces el cerebro humano es una máquina Turing-computable. Sin embargo, el Teorema de Gödel demostraría que el mecanicismo no es aplicable a las mentes humanas (Lucas). ¿Cómo hemos llegado a esta conclusión? Estudiemos a continuación un poco de historia de la lógica matemática.
Para Leibniz, "puesto que las verdades matemáticas son necesarias, deben ser derivables de la lógica, cuyos principios son también necesarios y verdaderos en todos los mundos posibles" (Kline 261). Fue Gottlob Frege quien continuó el programa logicista, es decir, el proyecto destinado a comprender las matemáticas como una rama de la lógica. Frege es considerado el verdadero fundador de la lógica moderna, "el padre de la lógica moderna" (Dummett 66) que marcó la ruptura con la tradición de la lógica antigua. De hecho, desde cierto punto de vista, puede ser considerado el primer filósofo moderno, debido a que entendió que la lógica es la verdadera filosofía primera: "para Frege, como para ellos, la lógica era el principio de la filosofía; si no acertamos con la lógica, no acertaremos con nada más" (Dummett 189). El método desarrollado por Frege para definir nociones básicas de la matemática a partir términos puramente lógicos seguiría desarrollándose en el siglo XX de la mano de Russell y Whitehead, cuya obra Principia Mathematica sería la versión definitiva del programa logicista. Frente al intento de entender las matemáticas como una extensión de la lógica, otros programas fundacionales trataron de responder a la fundamentación de las matemáticas sobre premisas distintas, como el programa intuicionista3.
La escuela formalista, desarrollada por David Hilbert, rechazaba tanto el programa logicista como el programa intuicionista. Pero, desde un punto de vista fundacional, las matemáticas no son un cuerpo de conocimiento indiscutible. Hilbert y Brouwer pretendieron la fundamentación absoluta de la matemática, pero dicha pretensión era ideológica: "Poincaré tenía razón porque en matemática sí hay problemas indecidibles y no se pueden dar listas de cuestiones como si ya fueran las definitivas: la matemática es un hacer nunca clausurado sino abierto (...), un hacer determinista, pero, a la vez, impredecible" (Lorenzo 345). El trabajo de Kurt Gödel, Sobre las proposiciones formalmente indecibles de los Principia Mathematica y sistemas relacionados, tenía consecuencias para la completitud de las matemáticas y, en particular, para las aspiraciones de la escuela formalista de Hilbert (Kline). Existen enunciados significativos que pertenecen a un sistema axiomático pero que no pueden ser probados dentro de ese mismo sistema, algo contrario a las esperanzas de los formalistas, que "esperaban que cualquier enunciado verdadero pudiera siempre ser establecido dentro del marco de algún sistema axiomático" (Kline 318). Por tanto, "la consistencia de cualquier sistema matemático lo suficientemente amplio como para abarcar incluso la aritmética de los números enteros, no puede ser demostrada mediante los principios lógicos adoptados por las diversas escuelas: los logicistas, los formalistas y los conjuntistas" (Kline 315). El Teorema de incompletitud de Gödel conectaba con el problema de la decisión de Turing, ya que "existen proposiciones que no pueden ser probadas ni rechazadas" (Kline 321).
El Teorema de Gödel probaría que el mecanicismo no es aplicable a las mentes humanas. Mediante computadoras podemos simular ciertos aspectos de la mente, especialmente el razonamiento lógico y el cálculo matemático. Pero construir una máquina que simule aspectos muy útiles del comportamiento mental no significa que podamos construir "a machine to simulate every piece of mind-like behaviour" (Lucas 115). Existen elementos mentales "essentially different from machines" (113). Las máquinas pueden ofrecer comportamientos superiores al razonamiento humano, de hecho, su capacidad de cómputo es inigualable. Pero los modelos matemáticos de la mente no se corresponden con las mentes naturales de manera sistemática y completa. No todo lo que hace una mente es computable: existirían procesos de la mente que no serían Turing-computables, como la creatividad. Los sistemas cognitivos humanos son capaces de actuar ante problemas indecidibles, pero no los sistemas formales. Nuestra capacidad para el pensamiento creativo y para comprender los límites de los sistemas formales no sería compartida por las máquinas, debido a su naturaleza algorítmica y formal. Los sistemas artificiales operan dentro de los límites de sus algoritmos; los sistemas cognitivos encarnados tienen la capacidad de trascender los límites de los sistemas formales.
El lenguaje humano está impregnado de matices que no se rigen por reglas estrictas y definidas, sino que emergen de miríadas de relaciones con contextos culturales, históricos y sociales. Estos elementos escapan a la rigidez de la lógica formal, dando lugar a la necesidad de una lógica informal para su estudio. Estamos lejos del sueño formalizador que inició el programa de Leibniz de construir un lenguaje perfectamente lógico en el que todo el pensamiento se reduciría a cálculos, y que derivó en un modelo sistemático del pensamiento al llevar el mecanicismo al estudio científico de la mente.
Límites de la inteligencia artificial: gatos, mitos y máquinas
La aparición de modelos de lenguaje como ChatGPT/GPT-4 y su asombroso rendimiento anuncian el comienzo de una nueva era. Los LLM han demostrado una asombrosa capacidad en el procesamiento del lenguaje natural, la creación de contenido, el análisis e interpretación de imágenes, la composición de música o la generación de imágenes. La innovación en este campo apunta hacia la posibilidad de desarrollar la mencionada IAG. La IAG aspira a replicar la mente humana o incluso superar la inteligencia humana en todas sus facetas. Como hemos descrito, hay un escepticismo considerable en cuanto a si esto es realmente posible, pues la única IAG existente, nuestras mentes, "is not an algorithm running in our heads, but calls on the entire cultural, historical, and social context within which we think and act in the world" (Larson 31). A pesar de los avances en deep learning y en procesamiento del lenguaje natural, todavía estamos lejos de crear una máquina que pueda igualar la capacidad de comprensión de un ser humano. Estudiemos a continuación qué tipo de inferencias hace una máquina cuando resuelve problemas y qué inferencias no pueden ser programadas todavía.
El razonamiento inductivo y abductivo son dos formas de inferencia que se utilizan tanto en la ciencia como en la vida cotidiana. El razonamiento inductivo tiene lugar cuando extrapolamos casos conocidos a otros aún no observados, pero de la misma categoría. En otras palabras, se basa en la observación de casos particulares para formular una hipótesis general sobre fenómenos desconocidos. En el contexto de la inteligencia artificial y el aprendizaje automático, Marvin Minsky sugirió que las máquinas pueden utilizar el razonamiento inductivo para construir modelos de su entorno y mejorar la eficiencia de sus procesos de búsqueda y aprendizaje.
El razonamiento abductivo implica la formación de una hipótesis explicativa de un fenómeno u observación. A diferencia de la inducción, la abducción no se basa únicamente en la observación de patrones en los datos, sino que también implica comprender qué elementos son relevantes en una situación compleja. En The Myth of Artificial Intelligence, Erik Larson argumenta que, aunque las máquinas pueden realizar inferencias inductivas, no pueden realizar inferencias abductivas y nadie sabe cómo programarlas:
To abduce we must solve the selection problem among competing causes or factors, and to solve this problem, we must somehow grasp what is relevant in some situation or other. The problem is that no one has a clue how to do this. Our actual inferences are often guesses, considered relevant or plausible-not deductions or inductions. That's why, from the standpoint of AI, they seem magical (Larson 183).
Supongamos que una máquina de aprendizaje automático está entrenada para reconocer imágenes de gatos. Se le proporciona un gran conjunto de datos de imágenes, algunas de las cuales son gatos y otras no. La máquina analiza estas imágenes y busca patrones y características comunes en las imágenes de gatos (por ejemplo, la forma de los ojos, las orejas, la cola). A partir de estos patrones, la máquina genera una "regla general" o modelo que puede usar para identificar gatos en nuevas imágenes. Este es un ejemplo de inferencia inductiva: la máquina va de casos específicos (el entrenamiento con imágenes individuales de gatos) a una regla general (el modelo de reconocimiento de gatos) que le permite reconocer nuevos casos específicos de la misma categoría.
Ahora analicemos un ejemplo de inferencia abductiva o inferencia a la mejor explicación. Entramos en nuestra casa y encontramos un jarrón roto en el suelo. No hemos visto lo que ha ocurrido, pero sabemos que Michi -en mi caso, Olivia- hace travesuras "alguna vez". A partir de esta observación -y del conocimiento previo de que nuestro gato hace travesuras "de vez en cuando"- formamos la hipótesis plausible de que Michi ha roto el jarrón. Esta es una inferencia abductiva: formamos una explicación razonable de un fenómeno (Michi rompió el jarrón) para una observación (el jarrón roto en el suelo). A diferencia de la máquina de aprendizaje automático, no estamos simplemente aplicando una regla general a un caso específico de la misma categoría; estamos utilizando nuestra imaginación para generar una hipótesis "de distinta categoría" del fenómeno observado.
Mientras una máquina se entrena con datos para establecer reglas generales que se utilizan para predicciones o toma de decisiones, los humanos no nos limitamos a aplicar reglas generales para reconocer casos específicos. También somos capaces de utilizar la creatividad para generar ideas de un orden distinto. Es decir, vamos más allá de los datos disponibles para producir explicaciones originales. Incluso, si no hemos visto nunca a nuestro gato romper un jarrón, podemos imaginar a Michi rompiéndolo e inferir lo que sucedió como hipótesis explicativa del fenómeno observado. Los humanos utilizan un proceso flexible y creativo que implica la generación de hipótesis y la exploración de diferentes posibilidades en función de su relevancia en una situación dada. De hecho, la noción de "situación dada" es una forma, vaga y genérica, de hacer referencia a una cantidad masiva de información. La abducción es algo alternativo a las inferencias que se generan a partir de las estadísticas de un conjunto de datos observados. En consecuencia, mientras que las máquinas elaboran inferencias inductivas, la abducción tiene que ver con la formación o construcción de hipótesis en situaciones complejas.
La programación de la inteligencia abductiva -la capacidad de generar ideas de diferente categoría ante los fenómenos observados- es un desafío significativo en el campo de la inteligencia artificial. Aunque se han hecho algunos avances en la programación del razonamiento abductivo, estos esfuerzos aún están lejos de replicar la creatividad y la imaginación que caracterizan al pensamiento humano. Para Larson (189), la inducción no es el camino que nos puede llevar a la IAG, y ese camino "involves knowledge that outstrips what we can bluntly observe, but it's a mystery how we come to acquire this knowledge". No tenemos un algoritmo para este tipo de inferencias, la computación no cubre todos los tipos de proceso que tienen lugar en la mente humana.
Visiones contrapuestas: el futuro de la inteligencia artificial general
Lo que impulsa desarrollos como ChatGPT es la IA. Una IA puede aprender a chatear mejor, pero no puede aprender otras tareas. En cambio, el término IAG se refiere a un software capaz de aprender cualquier tarea o tema. La IAG aún no existe: en el sector informático se debate intensamente cómo crearla y si es posible (Gates). Para algunos autores, la investigación en IA -centrada en problemas y tareas específicas- podría dar lugar a formas de inteligencia más complejas, avanzadas y versátiles, que alcanzarían la IAG. Para Bostrom (52), una IAG es, de forma muy sintética, un intelecto "that greatly outperform the best current human minds across many very general cognitive domains".
Los singularistas especulan sobre el momento en que la IA se vuelva tan avanzada que supere la capacidad humana y se automejore a un ritmo acelerado. El término "singularidad" apareció en una conversación de 1958 entre Stanislaw Ulam y John von Neumann, durante la cual hablaron del progreso cada vez más acelerado de la tecnología y de los cambios "in the mode of human life, which gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue" (Ulam 5). En 1965, I. J. Good sostuvo que el desarrollo de la IA conduciría a una "explosión de la inteligencia", gracias a una máquina que superaría las actividades intelectuales humanas, "an ultraintelligent machine could design even better machines; there would then unquestionably be an 'intelligence explosion', and the intelligence of man would be left far behind" (Good 33).
Los singularistas han aceptado la interpretación de la inteligencia como velocidad de procesamiento de información. Basándose en esta idea, argumentan que la singularidad tecnológica se alcanzará por el aumento en la velocidad de cálculo de los sistemas inteligentes, aceleración que se deriva de las mejoras en los mecanismos que implementan los procesos, es decir, gracias a un hardware más rápido (Hoffmann). De hecho, si bien se han propuesto arquitecturas y algoritmos nuevos, como los Transformers, las IA generativas de la actualidad no deben su superioridad a innovaciones radicales a nivel teórico, sino al aumento en su capacidad computacional, es decir, en el número de tokens que pueden procesar.
Como hemos señalado previamente, el Teorema de Gödel tiene importantes implicaciones para la inteligencia artificial al establecer límites a lo que una inteligencia artificial puede hacer. El trabajo de Gödel ha sido utilizado para afirmar que ninguna máquina computacional puede simular completamente los sistemas cognitivos humanos (Lucas, Penrose y Koellner), esto indica que actividades como la creatividad no pueden ser mecanizadas. Pero este uso ha sido objeto de fuertes críticas (Benacerraf), que concluyen que los argumentos gödelianos contra la IAG no son suficientemente poderosos. La cuestión sobre la singularidad y la IAG parece abierta (Hoffmann). Lo que vemos aquí es un problema filosófico que tiene enfoques diferentes según se forme parte del paradigma computacional (Chalmers), físico (Koch) o biológico (Searle). Este trabajo sigue una ontología no reduccionista que comprende el pensamiento formal como parte de la naturaleza, pero solo como una expresión reductiva de ella. Por tanto, está más próximo a las tesis biológicas que enfatizan algún aspecto específico de la biología como clave para la conciencia. Sería muy difícil tener un sistema consciente que no sea físicamente muy similar a un cerebro con sus aperturas bio-químicas.
En Quantum theory, the Church-Turing principle and the universal quantum computer, David Deutsch propuso la idea de que la computación cuántica podría superar algunas de las limitaciones establecidas por el Teorema de Gõdel. David Chalmers argumenta que la singularidad podría aparecer, no por un sistema computacional y algorítmico clásico, sino por un proceso que dependa de "certain nonal-gorithmic quantum processes" ("The Singularity" 15). Por tanto, podríamos construir "artificial systems that exploit the relevant nonalgorithmic quantum processes, or the relevant subsymbolic processes, and that thereby allow us to simulate the human brain" (15). Adoptando el enfoque funcionalista o computacional, David Chalmers (The conscious mind) entiende que los sistemas con los mismos patrones de organización causal tienen los mismos estados de conciencia, sin importar si esa organización esté implementada en las neuronas, en el silicio o en algún otro sustrato. Pero que la experiencia consciente dependa de características cuánticas del cerebro podría ser un límite. Existiría un límite científico a la construcción de mentes artificiales "because quantum restrictions involving the measurement of particles may disallow learning the precise features of the brain that are needed to construct a true isomorph of you" (Schneider 29). Frente al enfoque funcionalista, los naturalistas biológicos defienden que la conciencia:
Depends on the particular chemistry of biological systems-some special property or feature that our bodies have and that machines lack. But no such property has ever been discovered, and even if it were, that wouldn't mean AI could never achieve consciousness. It might just be that a different type of property, or properties, gives rise to consciousness in machines (19).
Hoy la neurociencia está descubriendo, poco a poco, varios correlatos neuronales de la conciencia. Pero todavía nadie sabe por qué o cómo los procesos cerebrales dan lugar a estados mentales. Es decir, el programa de investigación en conciencia artificial necesita un puente que todavía no sabemos cómo construir. Seguimos a Larson, en The Myth of Artificial Intelligence, para afirmar que es necesario un gran avance científico y, actualmente, nadie tiene la menor idea de cómo sería ese avance ni de cómo llegar hasta él.
La literatura como fenómeno meta-estético
La filosofía mecanicista y la confianza en que el mundo está escrito en caracteres matemáticos sentaron las bases para la exploración de fenómenos más desconocidos como la naturaleza de los estados mentales. La historia de la mente como una máquina lógica -frente a las subjetivas y relacionales cualidades secundarias- recorre los pensamientos de Llull, Hobbes, Leibniz, Boole, Frege, Russell, Carnap, Turing y von Neumann. La lógica moderna, el diseño de circuitos lógicos, la invención del transistor, el circuito integrado y la progresiva miniaturización del hardware impulsaron la revolución digital que llegó a nuestros días. Sin embargo, el intento de hacer del lenguaje formal una suerte de "filosofía primera" ha dado lugar a un reduccionismo cientificista sustentado en un monismo lingüístico que simplifica la experiencia meta-humana. Es la degradación o simplificación de la conciencia humana para fines tecnológicos. Frente a este enfoque, se busca desarrollar un pensamiento pluralista que reconozca los límites de la inteligencia artificial y abra espacios para prácticas no reduccionistas o simplificadoras. De hecho, necesitamos usar la creatividad para reinventar la tecnología, abriendo nuevas formas de percepción que el mal uso de la tecnología cierra.
El mundo real es simplificado por un mundo formal y cuantitativo: solo lo calculable es susceptible de tratamiento científico. Su origen teórico, la revolución científica del siglo XVII. El mundo cartesiano es "a strictly uniform mathematical world, a world of geometry in which there is nothing else but extension and motion (...). This means the expulsion from scientific thought of all considerations based on value, perfection, harmony, meaning, beauty, purpose" (Sherrard 69). La nueva imagen del mundo nos introduce en un mundo de representaciones que nos alejan de nuestra inteligencia corporal (IC). Un campo planetario de movimientos digitales empobrecidos y alineados se ha impuesto sobre los movimientos evolutivos de variación y cambio. No es casual la "transhumanistic search for individual immortality, associated with dreams of absolute digital control and utter disembodiment through AI and the VR metaverse, creating a complete, reduced, and seemingly controllable, double of the world" (del Val, Ontohackers XXXI).
La filosofía mecanicista tendrá como efecto la aparición de una ciencia menor, la estética. La estética debe ser entendida como una ciencia relacional, que genera prácticas que contrastan con el rigor formal que aportan propiedades como el número, la forma o el tamaño. La estética nos aproxima al cuerpo frente al carácter estilizado del pensamiento conceptual. La estética abre grietas en la racionalidad moderna: existe un espacio subterráneo, un nivel inferior más indeterminado y difícil de representar. El mundo estético no produce leyes universales ni unidades abstractas equivalentes susceptibles de cómputo. La estética estudia aquellos aspectos que escapan sistemáticamente a la formalización y a la computación. El sujeto estético en la sociedad de la información (Fernández Mateo), que ahora inicia la era de la IA, explica que la racionalidad calculadora es solo una de las prácticas posibles a disposición del ser humano.
Frente a la "literatura" mecánica y artificial podemos hablar de meta-literatura como construcción ajena a todo cálculo, como expresión artística de lo incalculable. La meta-literatura continuaría el proyecto del meta-humanismo desarrollado por la obra artística y filosófica de Jaime del Val4. Se trata de un movimiento relacional entre el cuerpo y el papel que no crea patrones sino campos de variación irreductibles a la cuantificación, campos fluctuantes sin forma que se despliegan en la variación. La meta-literatura redefine el movimiento, un movimiento no algorítmico, plástico; una secuencia de conexiones manifestadas en la escritura que no puede ser codificada en un algoritmo.
Frente a otras propuestas -posthumanistas, transhumanistas- el meta-humanismo plantea una ontología del devenir que no puede entenderse como completada o determinada, tanto en su resultado como en su movimiento. Esta expresión pluralista es opuesta a la visión que intenta "to place the human at the centre of the worldview through placing truth elsewhere: in a transcendent reality of ideas, reason, machines or information" (del Val, Comparative Posthumanisms). El prefijo meta- tiene múltiples resonancias: una ontología radical del devenir, del cambio, de la mutación, de las emergencias; una ontología relacional, perspectivista y situacional; una ontología que excede y va más allá de la representación; un pensamiento y una escritura por venir y construir.
El Algoriceno es una época reduccionista que culmina en una sociedad de pura cuantificación en la que el movimiento y el comportamiento se consideran a través de la trayectoria mecánica y medible de un cuerpo dado en un espacio-tiempo predefinido. La cibernética aún se basa en este paradigma al intentar anticipar las desviaciones mínimas de cualquier trayectoria curvilínea compleja y corregirlas siguiendo predicciones y objetivos. Hoy en día, los puntos de visión fijos evolucionan como redes móviles de sensores e interfaces. El espacio mecánico abstracto evoluciona hacia un espacio hiper-algorítmico, donde los sistemas de big data crean correlaciones emergentes como patrones dinámicos que, a su vez, reorientan comportamientos y percepciones. La meta-literatura busca escapar de esos procesos, pues es un campo indeterminable en sí mismo que, sin embargo, sufre la disminución de su campo de creación por un mundo reducido e inmovilizado, el mundo de los patrones y las formas previsibles. El control algorítmico se basa en el empobrecimiento del movimiento, de la variación:
Reduction equals domination. Domination is the history of a diminishing of plasticity, that is, when movement gets imposed by some and assumed by others, instead of coemerging. The grid, a hazardous evolutionary expression, has increasingly externalized itself, composing an entire world of gridded relations. Algorithms are the ultimate paradigm of reduction of movement to segments that can be endlessly (recodified within highly gridded architectures - from textiles and looms to counting and writing, agriculture and cities, architecture and perspective, frames and theaters, cameras and screens, pixels and microchips. It's as if some gridded brain connections had externalized themselves over millennia, composing a planetary ecology that wants to conquer the entire universe (del Val, Ontohackers 56).
Conclusión
Las máquinas pueden encontrarse con problemas que no son capaces de resolver y, en determinadas situaciones, entrar en bucle. En cambio, los humanos tienen la capacidad emergente del pensamiento creativo para comprender la situación, redefinir el problema, adaptarse, encontrar soluciones o salir del "bucle" de una forma innovadora. Esta capacidad de adaptación y creatividad es una de las razones por las que los sistemas biológicos pueden superar a los sistemas formales en tareas complejas muy significativas.
Las redes neuronales artificiales, los algoritmos evolutivos, los modelos de lenguaje avanzados o los entornos de aprendizaje enriquecidos pueden ser enfoques muy prometedores. Pero, en los campos algorítmicos, las señales eléctricas son estrictamente binarias, coreografiadas por la arquitectura de microchips. Carecen de la apertura de las vías químico-biológicas, que son superiores precisamente debido a su apertura. Existe un denso territorio vedado a las formas de representación algoricénicas. La meta-escritura literaria forma parte de un orden simbólico que se adentra en un territorio no formal. Por ello, frente a prácticas lingüísticas lineales y formales, la meta-escritura expresa un movimiento no reducible a magnitud.
La fuerza estética no es un lenguaje universal y uniforme de representación, sino una expresión diversa y plural que, sumergida en un terreno corporal e informal, construye una cultura literaria heterogénea. La meta-literatura se mueve en un espacio que escapa a la representación, desarrollando una inteligencia corporal no formalizable. Los complejos procesos estadísticos dejan paso a una práctica incompleta, una actividad que escapa a las redes del Algoriceno y a las ciencias de lo artificial.
Frente al "cierre" que trata de operar la representación formal de lo mental, el fallo de la representación como "apertura" da lugar a miles de movimientos meta-humanos. La meta-literatura es una forma de resistencia frente a los procesos algorítmicos de "creación artificial". El deseo literario es la expresión de un algoritmo imposible que genera meta-mundos que escapan de la moderna lógica de la identidad.
Resumen
Main Text
Introducción, propósito y metodología1
Contexto y límites de la inteligencia artificial
Límites de la inteligencia artificial: gatos, mitos y máquinas
Visiones contrapuestas: el futuro de la inteligencia artificial general
La literatura como fenómeno meta-estético
Conclusión