¿Cuál es la diferencia fundamental entre las inteligencias artificiales generativas basadas en modelos masivos de lenguaje, como ChatGPT o GPT-4, y otras tecnologías importantes de la historia humana? En mi opinión, es esta: a diferencia de todas las tecnologías anteriores, a ChatGPT y sus congéneres les hablamos y nos responden. En teoría, son instrumentos, meras herramientas funcionales al servicio de sus usuarios; en la práctica, sin embargo, el vínculo que establecemos con ellas no es el mismo que con otros objetos de esa clase (un zapato, un martillo, un teléfono, un computador), sino el que tenemos con nuestros interlocutores, a quienes es extremadamente difícil no atribuir autonomía y subjetividad. En esa medida, y aunque no lo queramos, aunque pensemos que es absurdo o que no debe ser así, estas tecnologías se integran como agentes y actores “naturales” en el círculo de la socialidad, que en su nivel más fundamental es el círculo de las interacciones comunicativas. El círculo del habla.
En lo que sigue, no perdamos de vista ese dato. Es de suma importancia. Volveré a él después para responder la pregunta del título, o intentarlo, pero antes hace falta un rodeo para acotar el campo.
Una teología de las máquinas
Le temo a la inteligencia artificial y tecnologías afines, pero mis temores no son, como muchos de los que circulan, apocalípticos o hipercatastrofistas. No creo que GPT-4 y similares vayan a ser la causa de una debacle humana, y no creo que las disrupciones que ya están produciendo y las que producirán sean imposibles de asimilar al régimen político, económico y social en el que ya nos encontramos, o que desvíen en lo fundamental el curso que se vislumbra para ese régimen.
Tanto las expectativas de trascendencia por vía tecnológica como los temores apocalípticos que la tecnología despierta son una forma de pensamiento religioso. De hecho, son quizá la forma de pensamiento religioso más difundida entre las élites cognitivas del capitalismo global, hoy. El rango es muy amplio, desde quienes aguardan la pronta llegada de la singularidad—la fusión de la mente y el cuerpo humanos con la máquina, dejando atrás para siempre las limitaciones de la biología—hasta quienes pronostican la inminente desaparición de nuestra especie, incapaz de competir con sus propios inventos por los limitados recursos que ofrece el planeta. En medio están, y no son pocos, quienes otorgan a los algoritmos informáticos resultantes del machine learning cualidades transcendentales equivalentes a las de la divinidad, en tanto que sus operaciones nos son invisibles e incomprensibles, misteriosas, pero sus dictados deben aceptarse como verdad absoluta.1
Lo que tienen en común todas estas formulaciones—las apocalípticas, las salvíficas y las que están en medio—es que su reversión a la religiosidad es anti-humanista, en los dos sentidos del término. Son anti-humanismo: se posicionan filosóficamente en contra del paradigma humanista del pensamiento occidental y sus derivas modernas. Son anti-humanidad: auguran, e incluso desean, el fin de la especie tal cual ha existido hasta ahora, ya sea por su exterminio a manos de sus propias creaciones técnicas o por su trascendencia a un plano superior gracias ellas. Así, hacen parte de un decurso más general de la cultura contemporánea, el que la empuja hacia un imaginario posthumano y proyecta en esa dirección tanto sus deseos utópicos como los fantasmas de su distopía.
El error del pensamiento posthumano
El error en todos los casos es el mismo, y es ideológico. Tanto los extremos como el rango intermedio de esta forma de pensar las tecnologías digitales y la inteligencia artificial asumen que los términos del fenómeno—lo humano, lo maquínico—existen y son observables como entidades estables, definibles en su esencia; asumen que se trata de entidades previas y de alguna forma externas al campo social en el que operan e interactúan. Desde tal perspectiva, ese campo social no las determina ni define su (des)encuentro. Pero eso no es cierto. Desde su punto de origen, los objetos tecnológicos están marcados por las relaciones de producción que los generan, y su existencia es necesariamente social. Nuestro encuentro o desencuentro con ellos no es previo sino posterior al entramado que esas relaciones tejen, que es el entramado de nuestra vida misma, su red de condiciones materiales y su forma concreta. Las consecuencias que la tecnología puede llegar a tener, aún si son incalculables y resultan radicalmente transformadoras, están siempre tamizadas y direccionadas por esa red de vínculos y relaciones, la cual define su sentido y determina su impacto. Mirar la tecnología de cualquier otra manera es, en realidad, no verla.
Para entender a qué me refiero quizá valga la pena considerar un ejemplo concreto.
Supongamos el caso optimista, simplificándolo mucho: se espera que el desarrollo de la inteligencia artificial contribuya a establecer sistemas, instituciones y prácticas de gobernanza que aporten una racionalidad más completa a las actividades humanas, y que ayuden así a solucionar o atenuar los problemas globales que nos aquejan. En ese escenario, el riesgo que se anticipa es que la racionalidad mejorada de las máquinas supere a la racionalidad insuficiente de los seres humanos y termine poniéndonos a su servicio, en vez de que las cosas ocurran a la inversa; las soluciones que se proponen se orientan a mantener control y la jerarquía humana sobre las máquinas, pues se presume que los “viejos” problemas que se quería resolver se resolverán cuando las inteligencias artificiales lleguen a cierto estado de desarrollo, y que nos enfrentaremos entonces a “nuevos” problemas.
Lo que ese razonamiento impide ver es que el uso de la tecnología es en sí mismo parte del paquete de problemas que se pretende solucionar, y que cualquier solución que dependa de ella será, por necesidad, fallida. Por ejemplo, en las condiciones actuales no es posible activar el potencial de inteligencias artificiales sin agravar el problema del cambio climático; debido a sus necesidades energéticas, las infraestructuras materiales que sostienen la vida informática digital contribuyen más emisiones de gases de efecto invernadero que la industria aeronáutica o que varios países pequeños2. De la misma forma, esas infraestructuras y las redes informáticas en general no pueden funcionar—no existirían—sin las depredaciones de la extracción de tierras raras y otros minerales en territorios bajo control semicolonial o la descarnada explotación de mano de obra cada vez más barata en fábricas de chips y demás componentes, con los corolarios que esos procesos tienen de empobrecimiento y brutalización de personas y deterioro general de recursos productivos. Y así sucesivamente: no importa cuántas veces uno le pregunte a ChatGPT, a sus congéneres o a cualquiera de sus derivados futuros cómo solucionar tales problemas (y muchos similares, quizá todos en ese rango de cosas), el hecho mismo de formular la pregunta los empeora. Es inescapable: como ha escrito Jonathan Beller, la expoliación del planeta y la explotación de los trabajadores son el sustrato necesario del procesamiento de datos y la comunicación en la sociedad global contemporánea.3 Si hay una forma de salir de esas dinámicas, no será a través de una granja de servidores o de la pantalla de una computadora.
Y es que ni la supuesta racionalidad insuficiente de las mentes humanas ni la supuesta racionalidad mejorada de las mentes maquínicas son realidades abstractas y absolutas, exteriores a la materialidad en la que se encarnan. No pueden desprenderse de las relaciones sociales y las prácticas en las que se objetivan porque, en su sentido más profundo, son esas realidades y esas prácticas. Es por la misma razón que el desarrollo de tecnologías como las inteligencias artificiales generativas no será la causa de una hecatombe humana. Si hay tal hecatombe, su causa—como cualquier posible solución—será otra. El uso que hagamos de la inteligencia artificial será necesariamente epifenómeno y síntoma de una lógica social general e implacable que las antecede, y estará determinado por ella.
Nuestros actos comunicativos en las plataformas están atravesados por publicidad y propaganda, formalmente delimitados por aparatos ideológicos, sometidos a vigilancia y mercantilización, pero retienen un excedente humano, y en ese excedente reside su potencial liberador
Monopolios intelectuales, lenguajes rotos
Esa lógica es la de la reproducción, acumulación y valorización del capital, y ella provee tanto el marco en el cual funcionan las producciones tecnológicas contemporáneas como el terreno material y simbólico en el que nos relacionamos con ellas. Por supuesto, los ejemplos que he propuesto son situaciones esquemáticas e idealizadas; la realidad es que el uso de la inteligencia artificial “por el bien de la humanidad” (algo que sorprendentemente continúa apareciendo como opción en muchas discusiones del tema, incluso entre personas serias) se supeditará por entero a su funcionalidad y viabilidad al interior del sistema. Esa funcionalidad y esa viabilidad pueden ser directas, objetivadas en productos específicos que circulen como mercancías o, como en el caso de plataformas y programas que capturan la atención y la data de sus usuarios, que sirvan para producirlas.4 Pero también pueden ser indirectas, como mecanismos, procesos e incluso repositorios de conceptos, vocablos y metáforas que delimiten el campo simbólico en el cual el sistema se reproduce. A fines de responder a la pregunta del título, las segundas, las indirectas, me interesan más.
El momento actual de la historia del capitalismo ha sido descrito como “capitalismo de vigilancia”, “capitalismo computacional”, “capitalismo de plataformas”, “capitalismo de redes” y de varias otras maneras que apuntan en una misma dirección: a señalar que lo que define esta era, su característica fundacional, es la preeminencia de las tecnologías digitales como piedra angular de la actividad productiva y de la cultura. Y con ellas, un sector del capital que en términos generales llamamos “tecnológico”, en cercana coalición con el sector financiero, ha consolidado o está consolidando dominio y hegemonía en los nodos centrales del sistema, a escala global. Estas descripciones requieren muchos matices y notas al pie, pero aquí asumiremos que son, en general, correctas. Y tienen varias consecuencias, de las cuales quiero resaltar dos.
La primera es que, como el capitalismo en general a lo largo de su historia, el orden tecno-financero tiende al monopolio, y específicamente a los que algunos economistas llaman “monopolios intelectuales”: el control monopólico por parte de un grupo limitado de firmas sobre formas de conocimiento necesarias para el proceso productivo, incluyendo tanto sus propias innovaciones técnicas como la data que acumulan a través de ellas y la infraestructura necesaria para efectuar esa acumulación. Como recuerda la economista argentina Cecilia Rikap en un artículo reciente, el monopolio es una relación de poder entre aquellos que controlan el acceso a un determinado bien (y obtienen rentas de él) y aquellos a quienes ese acceso les es negado; en este caso, el bien fundamental en cuestión son los algoritmos de machine learning, a los cuales les añadimos valor cada vez que los usamos sin que ese valor reditúe, en última instancia, a nuestras cuentas. Lo acumulan otros, junto con el poder efectivo.5 Y se trata de un bien que no se redistribuye en el campo general del sistema, sino que se concentra cada vez más con su uso: los algoritmos, que ya son una caja negra para sus usuarios promedio, se hacen rápidamente más sofisticados y opacos, más ajenos al conocimiento general, más incomprensibles, retroalimentando el control monopólico del valor.
La segunda es que en ese contexto, los lenguajes humanos se están convirtiendo en meros instrumentos al servicio de la acumulación capitalista, un eslabón en la cadena productiva desprendido de sus funciones semánticas básicas y de su capacidad para mediar y modular nuestra relación con lo real. Esto puede parecer una exageración, pero no lo es; basta mirar alrededor y preguntarnos por lo que ha ocurrido en los últimos años con nociones tan fundamentales para la comunicación como “verdad” o “significado” para darnos cuenta de que algo se ha roto en ellas, sin visos de reparación. Este quiebre del lenguaje es de hecho un componente de base de los propios protocolos de la operación algorítmica, que lo procesa como procesa todos los datos, no solo los lingüísticos: conmutando paquetes de información autocontenidos cuyo único significado es el que tienen dentro del sistema informático. Ese sistema es indiferente a lo que los hablantes dicen con respecto al mundo o con respecto unos a otros, y esa indiferencia es clave para los modelos de negocios que campean en la era digital. En ellos, el significado no importa, importa la atención del usuario, que se llenará de contenidos que promuevan el “enganche” continuo de las personas a la red, sean cuales sean.
En suma, la vida en el capitalismo digital está orientada a la producción de subjetividades desprendidas de su propia experiencia, desprovistas de capacidades para acumular memoria e historia y concebir su propia vida social como algo distinto a la pura acumulación de fragmentos en tiempo presente. Lo que se les niega con eso, lo que se reprime, es la capacidad humana de hacer sentido. Y esto ocurre para permitir la continua valorización del capital tecno-financiero y constituir sus monopolios. Es decir, la producción de esas subjetividades y la represión de su capacidad de hacer sentido son dos formas indirectas en las que nuestras actividades digitales son funcionales al régimen de acumulación capitalista y sostienen su viabilidad, y es en ese esquema que las inteligencias artificiales generativas basadas en modelos masivos de lenguaje vienen a insertarse.
¿Por qué le temo a la inteligencia artificial?
Hasta ahora, los procesos que he esbozado han sido ubicuos y penetrantes, pero en última instancia imperfectos. Las redes y plataformas modulan el campo en el que se producen nuestras interacciones comunicativas y las integran al régimen tecno-financiero de acumulación, pero esas interacciones han continuado siendo, en esencia, una función humana. Esto les confiere una cualidad estocástica, azarosa e impredecible, que los algoritmos pueden analizar estadísticamente y moldear, pero no controlan por entero. Nuestros actos comunicativos en las plataformas están atravesados por publicidad y propaganda, formalmente delimitados por aparatos ideológicos, sometidos a vigilancia y mercantilización, pero retienen un excedente humano, y en ese excedente reside su potencial liberador.
Temo que el velocísimo desarrollo de tecnologías como ChatGPT, GPT-4 y afines imponga definitivamente un cierre a ese potencial. Si hiciera falta una analogía, diría que las veo como un instrumento para la subsunción real de la capacidad comunicativa humana en su forma más propia, el habla, al proceso de reproducción capitalista, luego de un corto periodo de su subsunción formal por las redes y las plataformas. Someterán a control algorítmico no ya únicamente los espacios en los que ocurren nuestras interacciones comunicativas sino las interacciones mismas, los actos de habla, poniéndolas de manera más profunda aún, más arraigada, al servicio de los monopolios intelectuales y su valorización. El mayor riesgo que conllevan, creo, es ese: si llegan a funcionar exactamente como sus creadores y propietarios pretenden, como tecnologías de propósito general,6 vaciarán nuestra habla de muchas de sus potencias fundamentales y la reducirán, de modo quizás irreversible, a la condición de pura mercancía, indiferente por completo a los significados, su sentido demarcado de manera exclusiva por la viabilidad de la acumulación de capital. Este es un proceso que ya se ha iniciado, pero al que aún es posible vislumbrarle vías de salida. Con ellas en uso generalizado, es posible que ya no lo sea.
Ciertamente, esta es una posibilidad, no un trayecto inevitable. No todavía. Pero una consideración de los incentivos de mercado, los modelos de negocio existentes y el carácter de la competencia en el sector, así sea somera, no deja demasiado lugar para el optimismo.
Revista Ideele N°309