Buena Data Podcast

En el capítulo de hoy, vamos a hablar del procesamiento del lenguaje natural y los riesgos y desafíos que estos modelos representan a nivel cultural, político y social.
¿Qué son los grandes modelos del lenguaje, como GPT-3, Bloom o BERT? ¿Cuáles son los verdaderos propósitos de estas nuevas tecnologías? ¿Cómo funcionan y se entrenan los modelos neuronales? Pero yendo un paso más allá… ¿qué repercusiones no previstas puede tener la adopción de esta clase de desarrollos a escala masiva?

Estamos ante un punto de quiebre, gracias al salto tecnológico más importante desde internet. Y las consecuencias que esto va a traer, no existe modelo alguno que pueda predecirlo.

Invitades del episodio
Sofía Checchi > https://www.linkedin.com/in/sofía-checchi-4b9711143/
Agustín Dye > https://www.linkedin.com/in/adye/

Recibí Buena Data > https://buenadata.substack.com/
Descubrí la Buena Data > https://www.instagram.com/buenadata.podcast/
Aprendé sobre cuestiones técnicas > https://www.deployr.ai/

Creditos musicales
“Buena Data Theme”, “CB Theme” y “GR Theme” by Hernán Escudero
“NPL Theme” y “A Better Place remix” by Dalmas

"Aurora Borealis Expedition" by Asher Fuilero
"Happy Mistake" by RKVC
"Alpha Mission" by Jimena Contreras
"Melting Sands" by ELPHNT
"Perihelion" by Cooper Cannell

Este episodio contiene material obtenido de programas de televisión y otras plataformas con fines periodísticos.
Para más información visitar > https://mothercastermedia.com/buena-data/buena-data-s01e04/

--

Hacemos Buena Data
Hacemos Buena Data
Mothercaster Media: producción, edición, diserño sonoro y post producción sonora > https://www.mothercastermedia.com
Circular.lat: comunicación y dirección de arte > https://www.circular.lat
Hernán Escudero: idea y música original, producción, guión y grabación > https://www.linkedin.com/in/hernanescudero/

Creators & Guests

Editor
Dalmas
Diseño y construyo la identidad sonora que representa y eleva el contenido de los Podcasts. Edito, mezclo y domino una variedad de formatos de Podcast, como entrevistas y narraciones.
Producer
Dalmas
Como Productor de Podcast, ayudo a las marcas a encontrar su voz, escuchándolas y trabajando juntas desde la creación del contenido, la grabación y hasta la publicación del Podcast.

What is Buena Data Podcast?

Buena Data es un espacio para debatir, aprender y concientizar sobre el maravilloso y amplio mundo de la ciencia de datos.

Tu día a día está cruzado por una fuerza invisible que se encarga de guardar datos de todas tus interacciones con el mundo digital, sea para afinar los resultados de tus búsquedas, tener información personal online de forma segura, o hasta venderte publicidad.

Los datos son la materia prima más valiosa de la actualidad. Y con ellos se pueden hacer soluciones que rozan lo mágico, pero también desarrollos con consecuencias potencialmente desastrosas para la humanidad entera.

Para entender hasta qué punto los datos son una constante omnipresente en la actualidad, en cada episodio analizo, examino y hablo sobre la Ciencia de Datos y sus componentes como algoritmos, machine learning e inteligencia artificial. También está presente la voz de los trabajadores y trabajadoras del rubro, quienes cuentan más sobre lo que hacen en su día a día y con qué herramientas trabajan. Y como este rubro crece de manera permanente, en cada capítulo hablamos de noticias en las que los datos son una herramienta de control, pero también de aquellas en las que los datos son la clave para pensar y crear un mundo mejor.

Todo esto lo hago con una mirada social crítica, pero por sobre todas las cosas, divertida y fácil de entender.

¡Hola! Soy Hernán Escudero, uno de los fundadores de deployr.ai, donde combino mis años de experiencia como Machine Learning Engineer (GCP Certified) y Lead Data Scientist. También soy sociólogo y periodista, lo que me da una mirada bastante heterodoxa y crítica respecto de la ciencia de datos como disciplina, filosofía y técnica. Creo fuertemente en una tecnología con una mirada humana y ética, y a través de la transferencia y co-creación de conocimiento se pueden dar los primeros pasos para repensar colectivamente una sociedad distinta.

--

Hacemos Buena Data
Mothercaster Media: producción, edición, diseño sonoro y post producción sonora > https://www.mothercastermedia.com
Circular.lat: comunicación y dirección de arte > https://www.circular.lat
Hernán Escudero: idea y música original, producción, guión y grabación > https://www.linkedin.com/in/hernanescudero

La discusión por el uso responsable de los datos continúa en > https://www.buenadata.ai/
Seguinos en Instagram > https://www.instagram.com/buenadata.podcast

Bloque 00 - Introducción
[Hernán Escudero]
Los Grandes Modelos de Lenguaje son programas informáticos que aprenden a entender y hablar como los humanos a través de la lectura de muchos textos.

Estos modelos son utilizados para realizar tareas de Procesamiento del Lenguaje Natural, como escribir frases coherentes, traducir idiomas o responder preguntas.

Los ejemplos más conocidos son BERT, Bloom, o GPT, cuya implementación a gran escala, ChatGPT, se encargó de escribir el párrafo anterior. En efecto: le pregunté a un modelo de lenguaje que me explique qué son los modelos de lenguaje.

No creo exagerar cuando digo que como humanidad, nos encontramos delante de un desafío como ningún otro hasta ahora. Combinando milenios de evolución matemática y una cantidad incalculable de recursos, pudimos diseñar sistemas que rompen la barrera entre el significante y el significado, haciéndonos pensar que nos entienden.

Pero el principal desafío es que somos nosotrxs, los seres humanos, quienes no podemos entenderlos (o peor aún explicarlos), y así y todo los usamos en nuestra vida cotidiana.

Y preparate, porque las consecuencias que esto va a traer, no existe modelo que las pueda predecir.
(Pieza Artística APERTURA - inicio)
[Hernán Escudero]
¡Hola! Soy Hernán Escudero, y estás escuchando Buena Data, un podcast para entender, desmitificar y cuestionar el mundo de los datos y el uso de algoritmos.

Aquí vamos a hablar de la ética en la inteligencia artificial, de los sesgos en la tecnología y cómo nos afectan como sociedad, discutiendo la realidad de una disciplina en constante evolución y cuyo crecimiento y omnipresencia nos afecta a niveles que aún no conocemos del todo.

En el capítulo de hoy, vamos a hablar del Procesamiento del Lenguaje Natural y los Grandes Modelos de Lenguaje y de los riesgos y de desafíos que estos modelos representan a nivel cultural, político y social.

Así que sin más preámbulos, arranquemos con Buena Data.
(Pieza Artística APERTURA - fin)
(Bloque 01)
[Hernán Escudero]
Agarrás tu teléfono y en el momento en que tus manos envuelven el dispositivo, una pequeña muleta virtual empieza a acompañar el movimiento de tus dedos.

Está ahí, en el predictivo del teclado de tu teléfono, corrigiéndote las palabras que tipeaste mal (o a veces, las que tipeaste bien).

También está en el Google Docs, donde a medida que voy escribiendo este mismo guión, me sugiere palabras y términos a utilizar a continuación.

Podés encontrarlo además en el filtro del spam de tu casilla de correo electrónico, y es el principal responsable de que el príncipe de Nigeria nunca haya podido recuperar su fortuna.

El Procesamiento de Lenguaje Natural (a partir de ahora, NLP) es probablemente la rama más abarcativa, compleja, asombrosa y espeluznante de la ciencia de datos.

El NLP está en muchas, muchas, muuuuuuuchas cosas más: como por ejemplo, reconocimiento de caracteres escritos, reconocimiento de texto y de habla, segmentación, análisis de sentimiento, análisis de discursos, traducciones, generación de lenguaje, chatbots, generación de imágenes y generación de videos, análisis genómico… y la lista sigue.

Es tan omnipresente como una deidad, y de hecho, hay gente que ha hecho chatbots que se conectan con Whatsapp y te permiten simular que hablás con dios. Así que tan lejos no pareciera que estamos.

Pero como ya dije, este es un tema muy complejo y muy abarcativo -me atrevo a decir que el más difícil de todo lo que es ciencia de datos-, así que sentate tranqui, y preparate unos buenos matienzos porque empezamos por el principio. Y en el principio… hubo palabras.
[Audio Stephen Hawking - Keep Talking]

[Hernán Escudero]
“Por millones de años, la humanidad vivió como los animales. Pero algo pasó, que desató el poder de nuestra imaginación: aprendimos a hablar, y aprendimos a escuchar. Hablar nos permitió comunicar ideas y trabajar juntes para crear lo imposible. Con la tecnología a nuestra disposición, las posibilidades son ilimitadas. Lo único que tenemos que hacer, es asegurarnos de seguir hablando”

Hace un siglo, alguien como Stephen Hawking, con la enfermedad degenerativa que lamentablemente tenía, habría muerto a los pocos años de vida. Pero por suerte estuvimos lejos de eso: los avances de la ciencia le dieron 74 años en esta tierra, y los de la tecnología le dieron una voz y movimientos robóticos, pero llenos de alma.

El lenguaje es tan maravilloso como misterioso. Es algo que crea y moldea la realidad, que al ponerle nombres, la hace concreta, le pone límites.

Y es cierto: definir es limitar. Y una de las primeras definiciones de la realidad son las palabras: vos ahora estás escuchándome hablar, y la línea de ideas y sensaciones que yo tengo en mi cabeza, de alguna forma te llega, porque uso una serie de palabras (y no otras), en un determinado orden, y también con una determinada cadencia tonal.

Así es como cobra sentido la famosa frase del filósofo y lingüista Ludwig Wittgenstein: “los límites de mi lenguaje son los límites de mi mundo”.

Ahora bien, el lenguaje no es únicamente las palabras, sino que tiene otros componentes. Gestualidades, miradas, o inflexiones vocales, son algunos de los elementos que a su vez le agregan una capa de complejidad más a la comprensión de un mensaje.

De hecho, el ejemplo más claro (que de hecho es casi imposible de resolver con los modelos típicos de NLP) es el tono del sarcasmo y la ironía: que es una expresión que a los algoritmos les es reeeeeee fácil de interpretar eh, posta, posta la entienden reeeee fácil.

Los Sistemas de Recomendación, como los que se usan en Spotify o Netflix, de los cuales hablé en el capítulo pasado, tampoco entienden de sarcasmo. Y es por esto que hay que tener mucho cuidado con el famoso “consumo irónico”: porque compartir un perfil de un terraplanista facho “porque es gracioso” o “porque te gusta y querés que lo lea más gente”, para el algoritmo es exactamente lo mismo.
(TESTIMONIOS - inicio)
[Sofia Checchi]
Mi nombre es Sofia Checchi, soy Licenciada y Profesora en Letras por la Universidad de Buenos Aires con orientación en lingüística formal y actualmente soy becaria doctoral del Consejo Nacional de Investigaciones Científicas y Técnicas, o sea del CONICET.
¿Qué ingredientes tiene que haber para que exista, para que se de la comunicación? Básicamente: emisor y destinatario (o receptor) y entre ellos lo que se transmite es justamente un mensaje.
¿Cómo sabemos que lo pueden entender, tanto el receptor como el emisor, en caso que cambie de rol? Bueno, lo que rige es un conjunto de reglas que nos permiten comunicarnos a grandes rasgos: o sea, un código.
Esta idea de la lengua o el código, qué es, dónde está y cómo funciona, es el núcleo de los debates de la lingüística moderna. Hay algo que nos predispone como humanos a hablar.
Volvamos a la idea de comunicación, si nos imaginamos un acto de comunicación, esos dos agentes probablemente sean humanos. Ahora ¿qué pasa cuándo algo puede hablar y no es humano y mucho más preocupante que eso, no tiene consciencia y es una máquina? Ese es el problema que nos postulan las Inteligencias Artificiales.
De alguna manera funcionan con un código también, que le proporciona un agente animado, un humano, y con grandes cantidades de texto que procesan y más o menos agrupan de acuerdo con esas reglas que le son cargadas.
¿Las respuestas que pueden dar pueden ser precisas para el acto de comunicación? Claro que sí. Pero siguen sin tener intención y siguen sin tener la posibilidad combinatoria infinita que tiene el cerebro, otro de los grandes debates de la lingüística moderna.

[Agustin Dye]
Hola, mi nombre es Agustin Dye, soy ingeniero en sistemas y CTO de Deployr.
Un Gran Modelo de Lenguajes es un modelo autorregresivo de lenguaje dado un contexto: el principio de una frase, una frase completa o bien una pregunta. Lo que va a hacer es tratar de predecir probabilísticamente hablando, cuál es la próxima palabra o pedazo de palabra que tendría que continuar a ese contexto.
Una vez que obtiene ese resultado, lo que va a hacer es agregarlo al contexto y seguir prediciendo en base a eso. Estos modelos aprenden a partir de grandes volúmenes de palabras, textos: por ejemplo Wikipedia, Internet en general y esencialmente la combinación de varios dominios, lo que va a permitir es que ese modelo de alguna manera tenga conocimientos sobre los campos de los cuales evidentemente estuvo entrenado.
Cuando nos referimos a Grandes Modelos de Lenguaje no solo nos estamos refiriendo a un sistema autorregresivo, sino también a un algoritmo conocido como “redes neuronales” que son un algoritmo basado en las neuronas naturales que tenemos vos y yo.
En los últimos años se desarrolló una arquitectura que es como se conectan cada neurona con la siguiente llamada “transformer”. Esta nueva arquitectura fue increíblemente revolucionaria porque permitía de alguna manera, poder focalizarse básicamente en lo que es importante. Eso comenzó en el dominio de lo que hoy se conoce como el Procesamiento de Lenguaje Natural y que focalizarse en puntos importantes sea traducido a, por ejemplo, el procesamiento de imágenes, al procesamiento de sonido, incluso hacia el folding de proteínas para el desarrollo de nuevas drogas.
(TESTIMONIOS - fin)
(Bloque 02)
[Hernán Escudero]
Ahora que tenemos un poco más claro qué implica hablar de EL LENGUAJE, volvamos al tema que nos convoca.
En los términos más básicos, el NLP parte de una idea muy sencilla. Las computadoras no entienden palabras: entienden números.

Entonces, el objetivo es encontrar la forma de traducir las palabras, que son las unidades mínimas de la lengua, a números, para que las computadoras puedan trabajar con ellos.

Las técnicas propias del NLP han ido evolucionando con el tiempo. Desde las elementales “bolsas de palabras”: esto es ordenar un texto en forma de matriz y contar cuántas veces ocurre cada palabra. Hasta los “embeddings”: representaciones de las palabras en espacios semánticos de múltiples dimensiones. El primer paso es el mismo que se repite como un eslogan no oficial del programa: traducir la realidad en datos.

¿Para qué? Para poder hacer algo con ello.

Y si bien no hay nada especialmente nuevo en aplicar modelos estadísticos y matemáticos al análisis del texto y del lenguaje, lo que sí es nuevo, es que a través del poder de la computación en la nube, una cantidad ridículamente alta de datos, y unos par de milenios de matemática en el medio… hicimos algo con ello.

En 2018 Google, anunció el lanzamiento de un modelo llamado BERT -cuyas siglas no vienen al caso-, dando el primer paso en el nacimiento de una nueva era: la era de los Grandes Modelos de Lenguaje, o LLM, por su sigla en inglés de Large Language Models.

Estos modelos son redes neuronales entrenadas sobre una cantidad de datos virtualmente inimaginable, cuyo resultado son palabras u oraciones que, para nuestros ojos humanos, parecen tener coherencia y representaciones semánticas apropiadas.

Dicho en otras palabras: parece que entienden, parece que hablan, y parece que lo que “dicen” tiene un significado.

Y hasta acá todo más o menos tranquilo, era un desarrollo alucinante de Google y de las grandes compañías de tecnología que siguieron sus pasos, con aplicaciones interesantes y prometedoras, pero nada nuevo bajo el sol.

Hasta que en noviembre de 2022 pasó algo que cambió absolutamente todo.

Algo que hizo -y esto no es chiste- que tuviera que tirar más de la mitad del guión de este mismo capítulo, porque todo lo que había escrito pasó a quedar tan viejo como si estuviera hablando de una máquina de escribir.

El 30 de noviembre de 2022, la empresa OpenAI -ahora propiedad de Microsoft- se convirtió en la partera de una nueva revolución industrial, trayendo al mundo una criatura única en su especie.

Si esto fue el fin del principio o el principio del fin será materia de los historiadores de las décadas y los siglos que vendrán, pero lo cierto es que ChatGPT dio inicio formal a una nueva era de productos a escala masiva que tienen a la “Inteligencia Artificial” en el núcleo y no como un agregado simpático.

Es realmente muy difícil explicar la sensación que genera este tipo de productos a alguien que nunca los haya usado. Y en esta línea, para más sorpresa y/o espanto, lo que hace a ChatGPT tan distinto a los demás, es lo increíblemente fácil que es empezar a usarlo.

Lo único que tenés que hacer es ir a la página, la googleas y la encontrás. Buscá ChatGPT y la encontrás. Te hacés una cuenta y listo: tenés un acceso gratuito (limitado pero bastante generoso hasta el momento) a la máquina que tiene todas las respuestas.

El problema que tenemos es que no sabemos ni qué preguntarle, ni cómo hacerlo.

Para explicar a qué me refiero, me voy a remitir a una obra maestra del humor y la ciencia ficción, uno de mis libros favoritos: The Hitchhiker’s Guide to the Galaxy (en castellano, la guía del autoestopista galáctico), del autor inglés Douglas Adams.

En este libro, la computadora Deep Thought (Pensamiento Profundo) recibió como input lo que se conoció como “La pregunta definitiva” y esta pregunta era “¿Cuál es la respuesta a la vida, el universo, y todo lo demás?”

Deep Thought se tomó siete millones y medio de años para calcular, así que imaginate la cara de los descendientes de esos investigadores originales, cuando después de todo ese tiempo, la respuesta fue “42”.

La máquina, imperturbable les explicó el problema: la pregunta había estado pésimamente formulada, así que explicarles por qué la respuesta a esa pregunta había sido esa, o sea, el número 42, requería el uso de otra supercomputadora y otros diez millones de años más.

Y es por esto que “42” es una referencia ñoña bastante común en libros, series, juegos, películas, etc.

Este ejemplo de un libro que tiene casi 50 años ilustra de forma inmejorable cuál es uno de los problemas que tenemos el día de hoy: la forma en la que les pedimos cosas a estos algoritmos y qué es lo que nos devuelven.

Pero por debajo de ello hay otra idea, que es que ahora tenemos que aprender a relacionarnos con una IA. O como dijo el CEO de OpenAI, Sam Altman, a co-evolucionar con la IA, en una declaración en febrero de 2023.

El NLP está en el corazón mismo de estos desarrollos que pertenecen al campo de lo que hoy en día se conoce como IA generativa, esto es: algoritmos capaces de hacer contenido muy, muy, pero muy, muuuuuuuuuuuuuuuuuuy parecido a lo que haría un ser humano.

Y es exactamente a esto lo que me refería cuando en el capítulo pasado mencionaba el rol de los algoritmos en lo que es la creación de la cultura.

Ahora no sólo tenemos acceso a la distribución de arte y contenido mediante estos algoritmos, sino que además tenemos acceso a herramientas que de forma cada vez más sencillas crean texto, imágenes y hasta audio de forma artificial.

Y obviamente, hay un par de problemas bastantes importantes con esto: para empezar, sólo las mentes más entrenadas en matemáticas de nuestra especie (de la humanidad) entienden de forma precisa exactamente cómo es que funcionan. Y aún así, por la propia naturaleza de estos modelos, es casi imposible entender por qué es que dicen lo que dicen, por qué es que arroja el resultado que arroja.

Estos modelos de IA generativa son lo que en la jerga se denomina “no-determinísticos”. Siempre hay un componente aleatorio en su resultado, siempre hay un elemento del azar interviniendo.

En términos muchos más fáciles: si vos a ChatGPT, por ejemplo, le preguntas “che ChatGPT ¿me contás una historia sobre un carpincho que sabe programar?”
Cada vez que vos lo hagas el resultado va a ser al menos parcialmente distinto.

Y al problema de no tener una completa trazabilidad científica y metodológica de por qué que estos algoritmos dan los resultados que dan, se le suma uno no menor, que es que tampoco sabemos a ciencia cierta con qué datos entrenaron estos modelos, o por lo pronto cada cuánto se reentrenan estos modelos..

Ojo, una cosa que sí sabemos es que muchos de estos modelos (especialmente en los modelos generativos de imágenes) entrenaron con, justamente imágenes, que tenían propiedad intelectual y esto da lugar a una batalla legal que va a tener repercusiones por muchísimo tiempo.

Entonces nos encontramos en una situación bastante única en nuestra historia. Creamos herramientas que de forma “casi autónoma”, son capaces de reemplazar a dibujantes, escritores, y músicos, pero lo que es nuevo es que puedan reemplazar hasta los mismísimos programadores que desarrollan el código de estos modelos.

[Dramatización - Hernán Escudero]
“Ha nacido el Uroboros Algorítmico: una serpiente que devora su propia cola, que se crea y se autoconsume. Que crea sonidos, imágenes y textos que se publican a lo largo y ancho de toda internet, y por lo tanto, pasan a ser una parte inevitable de sí misma, en futuros entrenamientos y reentrenamientos y reentrenamientos y reentrenamientos. Así, hemos dado a luz una espiral interminable de creación y destrucción que trae y reproduce en el mundo un contenido sin forma. Nada, y todo a la vez.”

[Hernán Escudero]
Y un punto importante es que por el mero volumen de datos y por el poder necesario para poder entrenarlos, para poder hacer algo con todos esos datos. Hay sólo un puñado de empresas que pueden diseñar y entrenar estos modelos completamente de cero. Lo que sí podemos hacer nosotres “mortales”, es hacerle pequeños “refinamientos”, que en la jerga se conocen como fine-tuning, para ajustarlos a fines un poco más específicos.

Entonces resumiendo:
No podemos controlar con qué se entrenan estos modelos.
No podemos replicar los resultados de estos modelos.
Ni tampoco podemos saber cuál es el costo real que tienen estos modelos, tanto en materia económica, como en materia ambiental.
Y lo peor de todo, es que realmente no tenemos forma alguna de prever cuál va a ser el costo social de estas tecnologías, o sea, cuál va a ser el impacto concreto y real que van a tener en nuestra vida cotidiana.

Para poner un ejemplo, cuando Justin Rosenstein inventó el botón de Like en Facebook, el tipo no tenía manera de imaginarse que su desarrollo iba a hacer que la ansiedad y la psicosis colectiva se multiplicaran a niveles desconocidos y que se convirtieran en el estado por default de media humanidad.

Pero tampoco tenía forma de saberlo y ese es exactamente el punto. Hay un interés muy grande en que se desarrollen estas tecnologías, hay muchísima, pero muchísima plata en serio invertida en hacerlo. Pero la pregunta es… ¿para qué?

Yo me atrevo a decir que ninguna de estas tecnologías fue concebida para hacer del mundo un mejor lugar o con un propósito concreto en mente, salvo “demostrar que se puede”, y empezar a sentar las bases para un mañana que sigue sin estar planificado en lo más mínimo.

En palabras bien argentas: al futuro lo estamos atando con alambre.

El ejemplo más crudo de esto que estoy diciendo, es que Google salió corriendo de forma desesperada a desarrollar una alternativa a ChatGPT.

¿Por qué tanto interés? Porque Microsoft, que para algo compró OpenAI, está incorporando esa tecnología en Bing (el buscador que es el eterno cebollita detrás de Google) y esto representa una amenaza realmente muy seria a su dominio y hegemonía total y absoluta en el mercado de los buscadores (si querés un número concreto, podés googlearlo, y vas a ver Google tienen el 92% del mercado de los buscadores, eso es mucha plata).

Es decir, pusieron quinta a fondo en la carrera del desarrollo tecnológico únicamente para no perder una posición en el mercado.

Entonces, una vez más, tenemos empresas que dicen pensar en el bienestar de la humanidad, pero no buscan satisfacer las necesidades de la sociedad, sino de un mercado que estas mismas empresas van inventando a medida que avanza y se disemina la tecnología que crean, y en buena medida, la tecnología que se nos es impuesta.

Hace 30 años, nadie necesitaba internet, streaming, redes sociales o una vida digital entera, hasta que la “nueva realidad”, que propulsaron los adelantos tecnológicos propios de nuestra era, las hizo imprescindibles.

De la misma manera, nadie necesitaba IAs generativas, pero estas empresas se están encargado de hacerlas tan fáciles y tan accesibles para incorporarlas en la vida cotidiana, que lentamente, también están pasando a ser imprescindibles.

Entonces tenemos por un lado, a una sociedad que en medio de una postpandemia, de una crisis absoluta del tejido social y de la puesta en duda de los consensos más elementales respecto a nuestro pasado, de nuestro presente y de nuestro futuro, le tiran por la cabeza el salto tecnológico más grande desde la invención de internet, tan grande que es capaz de erosionar cada vez más la frontera entre la fantasía y lo real.

Y por otro lado, tenemos a empresas que están entrando en un estado de frenesí para ver quién saca el algoritmo que más rompa la barrera entre “la IA y la humanidad” y haciéndolos cada vez más ubicuos, más inescapables y más necesarios. Y están haciéndolo fingiendo demencia ante los problemas concretos y reales que dejan a su paso.

Y ojo, todo esto es sin entrar en las cuestiones más macro y geopolíticas, como las tensiones entre Occidente y Oriente, la crisis ambiental y energética, las guerras y un larguísimo etcétera.
(Pieza Artística SEPA BUENA DATA)

Uno de los padres de la IA moderna, Joseph Weizenbaum, hace una distinción crucial entre decidir y elegir: mientras que la decisión es algo que puede ser programado, la elección es una capacidad que nos hace humanos.

Es producto de la comprensión, criterio, el juicio y la empatía, no del cálculo probabilístico.

Y traigo esto, porque es momento de que nos animemos a elegir otra cosa.
Porque no existe nada alrededor nuestro que sea natural, que sea así porque es así.

Desde el inodoro en el baño, que hace que no nos muramos de cólera cada vez que satisfacemos nuestras necesidades, hasta la notebook conectada a un satélite girando a decenas de kilómetros en el espacio, si miras alrededor te vas a dar cuenta de que hicimos de este mundo nuestro mundo, y la realidad es que todavía no sabemos qué hacer con eso.

Y la respuesta a esta pregunta no nos la va a contestar ninguna máquina universal, no la va a predecir modelo, ni tampoco la va a generar ninguna Inteligencia Artificial, porque no es artificial la inteligencia que nos va a llevar a hacer aquello que es correcto para nuestro auténtico bienestar.

Este es el mundo que tenemos hoy en día, hoy en el 2023. Es un mundo que no imaginamos, no supusimos, no venimos venir, pero está acá. Y sin querer caer en la paranoia y en el alarmismo, la realidad es que si no tenés aunque sea un poquito de miedo, es porque no estás prestando atención.

Voy a confesar que no hubo nada en mi humilde carrera como comunicador que me haya desafiado tanto como este capítulo.

Porque ¿cómo explicar que de repente hay un chatbot que es capaz de responderte todo lo que vos le pidas, pero que eso en realidad es un problema?

¿Cómo convencerte de que aunque Bing por ejemplo diga tener crisis existenciales y sentir pena? ¿O LamDA diga estar vivo y pida un abogado para que le garantice sus derechos?
Esos algoritmos y esas respuestas nos son más que un reflejo de nuestra propia desesperación como especie.
¿Cómo te convenzo de eso si hasta yo mismo a veces dudo de lo que veo?

Igual ojo, no todo es bronca y dolor. Estos Grandes Modelos de Lenguaje, que la realidad es que a mi me siguen volando la cabeza incluso con el miedo que me generan, nos ayudan a modelar y a entender la realidad, y vaya que están haciendo avances en esa dirección. Pero el punto que tenemos que tener siempre presente es que estos desarrollos no pueden entender la realidad por sí solos, ni tampoco comprender la totalidad de aquello que hace a la vida humana.
Porque aunque a estos modelos del lenguaje les hayamos enseñado a hablar como nosotros, no hacen más que ser nuestro propio eco, nuestro propio reflejo.

Podrán imitarnos, pero igualarnos, jamás.
(Pieza Artística CRÉDITOS)