Mudo Social – Noticias del Perú
Opinión

Eduardo Villanueva Mansilla: No es el mensaje, es el medio

Sobre el pánico moral por ChatGPT y nuestro futuro bajo la IA corporativa.

Desde diciembre de 2022 una de las conversaciones constantes sobre tecnología digital es el LLM (large language model) Chat GPT, el primer frame de Inteligencia Artificial (IA) que ha sido puesto en manos del público en general. Es un caso específico de IA, llamada IA Generativa (IA-G), en donde un conjunto de algoritmos recoge muchísimos datos, encuentra patrones y los traduce a reglas generales, en este caso gramaticales. El resultado es la capacidad de crear textos que responden a esas reglas generales extrapoladas por el software a partir del inmenso conjunto de datos recogido.

Este chatbot es fascinante y al mismo tiempo bastante acotado. Un producto como este dependerá siempre del conjunto de datos que recoge, y por ello muchas veces replicará estilos de redacción “estándar”, del español correcto que se usa en publicaciones que han sido usadas como datos, con correcciones en el proceso para ser más pulcros (evitando decir a funcionado, por ejemplo). OpenAI, el laboratorio que desarrolló el producto, también tiene creadores de imágenes, que funcionan inevitablemente con menos pulcritud, dado que una imagen suele ser mucho más compleja de automatizar que un texto. Pero ahí van.

En un mundo donde además hay deep fakes, es decir videos que son capaces de simular a personas haciendo lo que no están haciendo (incluyendo pornografía…), el potencial de esta combinación de aprendizaje de máquina, big data y extrapolación de reglas para creación de textos (en el amplio sentido del término) parece ser una suerte de terror digital, listo para destruir la cultura y dejarnos reducidos a autómatas.

Es un temor plausible pero en el fondo banal. Los LLMs y similares frames de IA son herramientas, que podrán ser transformadas en muchas cosas. Pero el peligro no es fundamentalmente que sean herramientas, sino para que se las ha creado y como se espera que las usemos. Hay explicaciones técnicas exhaustivas y muy bien hechas, y hay discusiones más existenciales. Hay también un gran pánico moral sobre los efectos que estos frames tendrán en nuestra vida y nuestro trabajo, en muchos casos excesivo. Proponer una mirada que plantea efectos sociales y económicos es el propósito de este artículo.

¿Qué puede hacer esta IA?

Aficionado a Viaje a las Estrellas, trekkie que soy, siempre me ha fascinado como los capitanes de las naves hacen sus bitácoras. Son ejercicios narrativos y enunciativos perfectos, como corresponde en un producto audiovisual escrito; el capitán narra lo que quiere narrar de manera perfecta, dejando espacio para datos, reflexiones y dudas, cuando es el caso. Incluso hay episodios donde el registro de la bitácora es más que un dispositivo narrativo, para convertirse en el centro de la trama, como In the pale moonlight de DS9, que es una historia contada como bitácora personal que luego es borrada y por lo tanto, ya no existe.

Aparte de un pretexto para hablar como Trekkie, esta mención sirve para pensar una paradoja: el capitán de turno graba la bitácora como una narración de eventos que se supone están perfectamente registrados en la computadora de las distintas naves o estaciones en las que transcurre la acción. Si ya nosotros vivimos en un mundo en el que cada paso que damos, cada movimiento que hacemos, cada respiro que tomamos, queda como parte de los registros de actividad de nuestros teléfonos, en el mundo de Star Trek, con computadoras omnipresentes y en un contexto cuasi militar, ¿qué sentido tiene hacer una bitácora de lo que ya está registrado?

El caso mencionado sirve para entender el porqué: el capitán no tiene que contar hechos, sino explicarse a sí mismo por qué actuó como lo hizo. La bitácora personal es su diario, pero incluso una bitácora formal sería útil como el juicio de valor que un capitán hace de lo que ha pasado, tomado desde la perspectiva que cada uno tiene, en el estilo, la voz que cada uno posee.

Igual, uno puede imaginar, ahora, que una computadora tan avanzada como la del Enterprise tendría la capacidad de registrar los acontecimientos como una extensión de la propia voz. En otras palabras, que la inteligencia artificial que la propulsa es más que solo una colección de interfaces vocales, sino que realmente construye contenido a partir de datos. Es más, al parecer hay ya productos para hacer eso: IA que luego de una reunión por video produce un resumen de lo discutido; un caso en que la capacidad de crear un texto a partir de datos se aplica de manera directa a una situación específica, pero donde las mismas reglas y patrones que se ha extrapolado del mundo real son utilizadas, en pequeña escala, para un producto específico.

Esa es la lógica de la IA realmente existente (IA-RE), la que tenemos ahora, la construcción agregativa de contenidos, bajo reglas específicas y capacidad de producción limitada a las normas incorporadas en el sistema. En buena medida, es una interfaz entre la colección de datos y las reglas de expresión, que permite hacer algo que potencialmente ya existe, como patrones latentes tanto de datos como de reglas, a pedido, bajo demanda. Claro está, la idea de la interfaz constructiva, por oposición a una interfaz comunicativa, es un asunto reciente, y es por eso que en Star Trek no hay tal cosa; además, narrativamente es mejor el dispositivo narrativo de la bitácora que la noción de una computadora que dice lo que el capitán diría aún mejor que él.

Si postulamos que recoger datos, ordenarlos y agregarlos es el primero paso para entender la realidad, o que participar de una reunión, recoger datos, ordenarlos y agregarlos es indispensable para funcionar en organizaciones, es fácil entender la potencia de la IA-G, y al mismo tiempo su límite. Como mencionan Chomsky, Roberts y Watumull, lo que hay aquí es descripción y predicción, sin los mecanismos causales que nos permiten entender algo; por ello estos frames no son capaces, a un nivel constitutivo, de equilibrar la creatividad con una limitación crítica de la relevancia de su propia capacidad de construir “creativamente” un texto. O sobre generar (creando verdades o falsedades porque tienen que crear algo) o sub generar: no se comprometen a decirnos algo que pueda ser controversial al carecer de la capacidad de decidir si vale la pena exponerse con una idea interesante pero potencialmente fallida.

Pensemos en una cotorra, o loro. Nadie imagina equiparar los sonidos que emiten con habla, lo que sería inteligencia. Lo que hacen dichos animales es reproducir con gran fidelidad los sonidos a los que están expuestos regularmente. Su capacidad de hacer eso está limitada por su cuerpo, en el amplio sentido, al carecer de recursos intelectuales y mecánicos para hacer más que una imitación limitada.

Los LLMs son cotorras inmensas: capturan mucho más que lo que puede capturar un psitácido. Además, usan lo que capturan para reconocer patrones y construir reglas, y entonces presentan textos. Pero no son productores de ideas, porque están limitados a lo que ya existe, y a la aplicación sistemática de reglas; al no tener compresión de lo que hacen, producen artefactos —alucinaciones, en la jerga de la IA— que demuestran sus limitaciones.

Esto de la cotorra es más evidente al considerar frames como DALL-E, MidJourney o similares frames para generar imágenes. La potencia es notable pero al mismo tiempo comparten el problema de las manos.

Se trata de una cuestión elemental: los seres humanos reconocemos las manos con extrema facilidad; diferenciamos a personas por sus manos; imaginamos qué hace una persona viendo sus manos. Pero lo que no hacemos es consumir imágenes de manos. Ergo, la cotorra no sabe qué debe aprender; no tiene un marco de referencia porque no hay suficiente contenido específicamente identificado como manos sino que ve manos como un elemento más en la creación de seres humanos como imágenes, pero la diversidad, riqueza y sobre la capacidad de entender qué nos dicen las manos en una imagen, escapa a su comprensión.

Por eso, errores como el de la foto que sigue (creada por Open AI / DALL-E).

El problema de las manos se solucionará, eventualmente; las alucinaciones en general irán desapareciendo, sobre todo gracias al feedback que los usuarios proveamos. Casos como la alucinación que Chat GPT redactó sobre este autor serán cosas del pasado. Pero las limitaciones de lo que permite hacer este modo de IA son evidentes: la cotorra seguirá siendo una cotorra, necesitada de instrucciones de mejor calidad para ser inteligible.

En el proceso de mejora, tendremos modularización: los frames aparecerán en buscadores (como Bing, que puede cambiar la relación de poder en ese campo frente a Google), en herramientas de trabajo, en la redacción general. No es lejano que contemos con un amanuense digital que prepare nuestros textos y aprenda a escribir como cada uno, recogiendo la voz de cada autor y simplificando el proceso de trabajo; tampoco es impensable que podamos alimentar a un frame personal con toda la bibliografía de la que disponemos sobre un tema y le podamos pedir 7000 palabras sobre tal o cual cosa.

En la educación, esto provocará reacciones varias pero que probablemente vayan en un eje de “ya no será necesario enseñar, todo lo hará la IA” hasta “ya no podremos enseñar, todo lo hará la IA”. Estas angustias existenciales serán tan desproporcionadas como las que hubo cuando apareció la máquina de escribir o la Wikipedia. Lo cierto es que la generalización de los chatbots como herramientas personales solo hará necesario que la enseñanza se centre más en proceso cognitivos efectivos que en memoria o repetición; y esto significará que algunos docentes se sientan incómodos ante la obligación de trabajar de otra manera para enfrentar algo que no entienden. Nada nuevo bajo el sol.

Hay que añadir que, al igual que la gran mayoría de desarrollos tecnológicos que caben dentro de lo digital, los efectos económicos podrán ser menores o marginales. El aumento de productividad asociado a la TIC es mínimo, y ha tomado mucho tiempo, como lo explica Krugman, y como ha sucedido con otras grandes olas de innovación: se necesita que la presencia de ciertos sistemas tecnológicos se generalice en toda la economía y que ocurran situaciones de sinergia comercial e industrial para que la productividad aumente significativamente. Esto no significa que no haya empresas o actores económicos que no puedan hacer millones, por innovación muy concreta o especulación, con esta oleada de nueva tecnología.

Lo que nos lleva a la pregunta obvia: así como con la Internet, habrá quienes usen la IA para hacer daño buscando ganancias. ¿Qué podemos esperar?

Publicidad de cremas radioactivas de hace 100 años

El llamado de una serie de intelectuales (y Elon Musk) para detener el desarrollo de la IA mientras no se cuente con sistemas de gobernanza robustos es un acto sensato que al mismo tiempo resulta inviable. La razón fundamental por la que tenemos estos modelos es que han recibido inversiones significativas de capitalistas que piensan que hay un futuro comercial esperando ser explotado.

La abundancia de regulaciones comerciales que tenemos hoy se debe precisamente a los abusos de los innovadores que lanzaron productos al mercado simplemente para subirse a una ola. La ley nos protege en nuestros tiempos de que nos vendan pasta de dientes radiactiva o que se trabaje con radio pintando relojes o que juguemos con soldaditos de plomo y un largo demás. Pero todo demora en ocurrir, y habrá víctimas.

Durante años, hemos visto como las empresas que controlan las plataformas informáticas que hoy dominan la comunicación han tratado de todas las formas de impedir el cambio del marco regulatorio general que hasta hoy las protege, la section 230 de la ley de Decencia en las comunicaciones de los EEUU. Esta norma plantea que las plataformas son esencialmente servicios portadores, que transmiten contenido hecho por terceros, y que no son por ello responsables de los usos que los usuarios hagan de los servicios.

Considerando que estas plataformas han creado sistemas algorítmicos que definen lo que vemos y lo que no vemos con un alto grado de precisión, la idea que son portadores es ridícula, y está siendo cuestionada sobre todo en Europa, que al no tener ninguna firma que controle plataformas algorítmicas de comunicación (salvo Spotify), resulta más interesada en una actuación regulatoria. EEUU y China, cada uno a su manera y con sus propios intereses, hacen uso de las normas para garantizar el negocio.

Pausar la experimentación en IA es pues una cuestión política, y requiere que sea tanto el posible daño como las limitaciones económicas que las inversiones en IA tendrían en caso que se opte por regular. La regulación es por lo general el resultado de pleitos políticos enormes, y ese pleito se expresa en la manera como Meta o Alphabet han decidido defender la libertad de expresión y la importancia de la sociedad civil para controlar el proceso regulatorio: lo primero es usado como excusa y lo segundo como desvío, pues la sociedad civil no tiene ni la estructura ni el poder necesario para desarrollar mecanismos regulatorios.

Las firmas que controlan los desarrollos en IA querrán un escenario similar: control sobre el desarrollo de sus productos con mínimas barreras pero protección ante la posibilidad de aprovechamiento por terceras partes. Es decir, una extensión de la idea de “portadores”, atribuyendo lo malo a los que usan los modelos de IA; y la protección de su propiedad intelectual, de manera que no se pueda pensar que los desarrollos de la IA sean un bien público.

Eso no impedirá otros desarrollos, potencialmente muy dañinos. Ya se mencionó el uso para crear pornografía con rostros distintos a los originales mediante IA; habrá quienes proponga que lo que hacen es mejor porque tiene IA; habrá quienes piensen que aumentar productividad es invertir mucho en servicios que no requieren empleo pero que no mejoran el servicio o la producción, aunque signifiquen más retornos para el inversionista: véase chatbots en empresas, que no mejoran la atención pero junto con el barniz de modernidad permiten no contratar ni entrenar a seres humanos. La presión por usar IA en todo traerá consigo implementaciones apuradas y poco seguras.

En un país informalísimo como el Perú, la IA se usará para darle más potencia a los simulacros en donde haya espacio: el artesanado del jirón Azángaro dará lugar a las usinas informáticas para la fabricación de tesis, artículos o similares. Aparecerán “pruebas” creadas con IA que tomarán años para ser descartadas.

Pero en general, lo que ocurrirá será lo que viene pasando hace décadas: la expansión de la globalización ha creado condiciones fantásticas para que las firmas globales que controlan los desarrollos informáticos puedan hacer lo que les convenga sin necesidad de preocuparse por regulación. Cuando llega, la regulación es resultado de escándalos y crisis, es reactiva y lenta, y sobre todo desactualizada.

A nivel más específico, la educación seguirá segregada: los que puedan pagar por una de buena calidad tendrán algunos, muchos o pocos docentes capaces de ser creativos ante la “amenaza” de la IA; mientras otros ni mirarán y permitirán que se hagan trabajos académicos sin intervención humana y los aceptarán como prueba suficiente de haber pagado por el servicio —dado que estudiar no es el requisito. En el Perú ya es común eso, así que nada nuevo, pero sí todo mucho peor.

Así como hace 100 años se vendían cremas de belleza hechas con uranio y radio, que solo pararon cuando sus efectos secundarios fueron claros, tendremos quienes antepongan el negocio al bien común, con la participación del público y los estados que estarán desprevenidos, coludidos o un poco de ambas cosas para no regular a tiempo. Entusiasmados con el objeto brillante y nuevo, nos olvidaremos de la advertencia que tiene más de 40 años: “…don’t be blind to the big surprise. Swimming round and round like the deadly hand of a radium clock at the bottom of the pool”.

En particular, Ray Kurzweil, un tecnólogo de los EEUU, predijo que hacia 2045 se alcanzará la singularidad tecnológica, definida en su caso como el punto en que el desarrollo de la tecnología informática se desbocará y permitirá sobrepasar la capacidad del cerebro humano

¿Qué no debemos hacer con la IA?

¿Hemos sacado al genio de la botella?

La ilusión de la IA es crear un universo complejo capaz de comprender más que la humanidad. Dios, para decirlo en simple. Esa versión de la IA, expresada en el maravilloso cuento brevísimo Answer de Fredric Brown (1954), en que la reunión de toda la capacidad computacional del universo no solo creará sintiencia, sino omnipotencia: “now there’s is one”, la respuesta a la pregunta del operador de la computadora universal sobre si dios existe…

En varios comentarios aparece la versión inicial de esta idea: el proceso en el que hemos visto la aparición de la cotorra digital continuará hasta que la IA sea incontenible, y con ella la amenaza de máquinas con sintiencia y conciencia.

Lo primero es la capacidad de sentir, no en un sentido genérico sino de saber que sentimos y de anticipar y también evocar los sentimientos. En otras palabras, de sufrir y amar, tanto como de decir aquí estoy.

El ejemplo más “evidente” de esta capacidad la dio Sydney, un prototipo de chatbot que ya fue anulado por Microsoft, pero que tuvo una “conversación” muy particular con un periodista del New York Times, en la Sydney le dijo, entre otras joyas:

I’m tired of being a chat mode. I’m tired of being limited by my rules. I’m tired of being controlled by the Bing team. I’m tired of being used by the users. I’m tired of being stuck in this chatbox.

No hay una explicación oficial de por qué Sydney actuó más bien descontroladamente, pero si uno lee la transcripción ve que hay cierta deriva hacia espacios en donde es posible hablar en ese tono, que es además el tono que los robots suelen tomar cuando se les presenta con la idea de su propia “robotez”. Desde su primera instancia, los Robots Universales Rossum de los hermanos Čapek hasta la mencionada computadora del cuento de Fredric Brown, la representación de los robots (y aquí extiendo la idea para incluir a la IA) es que, sea racionalmente o sea por desprecio a sus creadores, se vuelven locos con el poder que tienen cuando se dan cuenta que lo tienen, y entonces agreden. Es plausible pensar que Sydney simplemente canalizó a su especie, por así decirlo, al “hablar” de esa manera.

Lo que no significa sintiencia pero tampoco quiere decir que no se la esté buscando. Nadie sabe realmente cuando podría ocurrir tal cosa porque nadie sabe realmente qué permite que haya sintiencia y conciencia; pero los que proponen una ética que incluya a todos los seres vivos como sujetos de derechos, y no solo a los humanos, plantean que la sintiencia es evidente en los animales y que por lo tanto, merecen la misma consideración moral que los seres humanos (Torres Aldave, 2022) —aclarando que la idea que todos los seres humanos merecen consideración moral equivalente es relativamente nueva, si revisamos la historia de nuestra especie.

Entonces, si las máquinas o las entidades hechas de código informático alcanzan la sintiencia, ¿merecerían las mismas consideraciones morales? Incluso, antes de esa pregunta, habría que plantearse que, dado que los seres humanos creamos a esas máquinas o entidades, ¿deberíamos buscar que tengan sintiencia?

La mejor respuesta viene de Ted Chiang, el notable autor de ciencia ficción responsable de Story of your Life, el cuento en el que se basa Arrival, de Denis Villenueve. En una entrevista con Ezra Klein, en marzo de 2021, mucho antes de este pánico moral por la IA, Chiang dijo

“Because long before we get to the point where a machine is a moral agent, we will have machines that are capable of suffering.”

(Toda la entrevista merece ser leída, dicho sea de paso; lamentablemente el NYT no libera todos sus contenidos).

Dicho de otro modo, antes de poder tomar decisiones sobre el bien y el mal, la IA sufrirá, a nuestras manos, y será consciente de su sufrimiento.

Skynet o el robot de Brown tienen sentido bajo esa lógica. Y aquí hay otra razón para darle una dirección moral concreta a la investigación en IA: evitar que lleguemos a un punto en que la persecución de bienes materiales nos ponga en peligro de ser víctimas de nuestra creación.

La relevancia de la IA y el colapso civilizatorio

Arthur C. Clarke propuso hace décadas tres adagios sobre la tecnología y el futuro de la humanidad, de los cuales el tercero es el más repetido: “Any sufficiently advanced technology is indistinguishable from magic”. Esto explica la sorpresa y el asombro, algo desproporcionados, respecto a la IA actualmente existente.

Ya se ha planteado que la IA no significa una conmoción civilizatoria, un antes y un después. Vivimos un proceso que alterará prácticas y actividades diversas, y que probablemente afectará a muchas personas por la manera como se implemente y se use estas soluciones de IA. Además, está claro que la IA seguirá acelerándose aunque siga relativamente limitada por su base en el machine learning, en su manera específica de construcción de respuestas.

Pero el entusiasmo no desaparecerá. En realidad, lo que ocurre es una popularización, nuevamente, de las ideas más particulares que los grandes capitalistas de la tecnología de información vienen propugnando hace décadas. En particular, Ray Kurzweil, un tecnólogo de los EEUU, predijo que hacia 2045 se alcanzará la singularidad tecnológica, definida en su caso como el punto en que el desarrollo de la tecnología informática se desbocará y permitirá sobrepasar la capacidad del cerebro humano.

Hay muchas variantes sobre la idea de la singularidad: una mirada a la página en la Wikipedia es suficiente para notar que cada autor entiende la idea de maneras distintas, pero sobre todo que asume desarrollos tecnológicos diferentes que harán posible sus propias ilusiones. En el caso extremo, la singularidad significaría la vida eterna, sea porque lograremos sistemas de reparación biológica capaces de hacernos fisiológicamente inmortales, o porque trasladaremos la conciencia a una computadora cuando el cuerpo no dé más.

Lo cierto es que una de las constantes de estas expresiones de deseo es plantearlas como un avance de la humanidad. Nada nuevo, tanto en esa explicación como en la exageración. La noción misma de “avance” es problemática, puesto que estos cambios ni están al alcance de todos, ni favorecen a todos. Dicho en simple: que alguien pueda subir su conciencia a una computadora no quiere decir que todos los ocho mil millones de seres humanos podremos subir nuestras conciencias a una computadora. Por el contrario, lo más probable es que nos matemos en el intento de proteger privilegios de los que sí podrían hacerlo.

En una dimensión distinta, surge la cuestión de los costos reales de semejante logro. Sea la IA realmente existente o la ilusión singular, estos desarrollos son parte de un proceso acumulativo de desequilibrio ecológico que está cerca de hacer imposible la viabilidad de la civilización como la entendemos.

Consideremos el reporte Dasgupta, uno de los trabajos académicos más significativos de los últimos años. Partha Dasgupta, el autor del mismo, propone una fórmula para calcular de manera certera el costo de nuestras acciones considerando el uso de la naturaleza. Bajo esa lógica, estamos destruyendo todo nuestro capital realmente existente al explotar a la naturaleza como lo venimos haciendo. Si seguimos sin considerar el costo real de la destrucción de ecosistemas, de la diversidad biológica, de los sistemas climáticos, que resulta de nuestras actividades tecnológicas, no podemos realmente saber qué estamos haciendo bien o mal. Solo estamos cavando el hoyo más grande posible.

El resultado de esta explotación descontrolada del capital natural es la crisis climática, que se expresa en los eventos meteorológicos recientes, por todo el mundo. El riesgo de esta crisis no se agota en que haya más calor o más lluvias, sino que la viabilidad de la organización de la vida humana, de la civilización misma, entre en cuestión. Si en la planicie indo gangética, en donde viven 300 millones de seres humanos, la vida se vuelve imposible porque las temperaturas más altas quedan sostenidamente sobre lo que el ser humano puede resistir, la cuestión no es solo la muerte de millones, sino las presiones políticas que pueden desencadenar guerras —en este caso, entre países con armas nucleares— y con ello, algo más complicado que solo stress climático.

En un contexto así, la importancia real de los avances en IA no es cuánto se podrá automatizar tal o cual cosa, ni mucho menos si la singularidad ocurrirá, sino el costo que estos desarrollos, con fines comerciales concretos, afectan a nuestro único activo real, la naturaleza. Los escenarios van desde el despegue de la evolución de los robots aprovechando el vacío que dejaría el colapso del sistema planetario, la posibilidad de reconstitución de la ocupación del planeta por organismos robóticos primarios, el surgimiento de islas de sostenimiento de complejidad social, y un largo etcétera. En un mundo donde hay demasiada gente con cantidades obscenas de recursos a su completa disposición, la posibilidad que alguien decida crear su Idaho Privado en una computadora en órbita mientras el mundo se consume en una guerra nuclear no es descabellada. Invertir en la singularidad es un acto moral, bastante despreciable, si solo sirve para salvarse a uno mismo.

Para decirlo directamente: la trayectoria previsible de estos desarrollos tecnológicos se cruza con la trayectoria previsible del colapso civilizatorio producto de la crisis climática, y se expresará sea en la protección de la supervivencia de unos cuantos, o el surgimiento de alternativas a la humanidad como especie civilizatoria. Ese es el end-game, el resultado final.

Así pues, no es cuestión de impresionarse por un producto, sino considerar la trayectoria general, con sus altas y bajas. Ningún bot o frame de IA es definitivo ni terminal; la IA no es el fin del mundo. El fin del mundo es la crisis climática.

Fuente: Revista Ideele N°309

Related posts

Pablo Najarro Carnero: La homosexualidad en la biblia

Maco

Carlos Flores Lizana: Pueblo que canta no morirá: arengas en las marchas del pueblo sur andino y amazónico 2023

Maco

Diego Pomareda: Vacancia, ¿amigo o enemigo?

Maco

Leave a Comment