¿La IA entiende… o solo está fingiendo? – Robots, psicoterapia y la batalla por nuestra mente.

En este episodio, David Uvalle y Alberto Cruz exploran las fronteras más humanas de la IA: desde el uso de robots multimodales hasta los dilemas éticos en salud mental, música y propiedad intelectual.

Escucha el episodio completo sobre IA, salud mental y copyright.

Introducción

Voz IA
Estás a punto de cruzar un umbral donde la tecnología deja de ser herramienta y se convierte en espejo. Bienvenido a los dioses de la inteligencia artificial. A los dioses de la inteligencia artificial. ¿Por qué confiamos más en una máquina que en nosotros mismos? Tal vez porque la máquina no miente. Que la máquina no miente. Aquí no hay respuestas simples, solo preguntas demasiado humanas. Una batalla entre dos cerebros, el biológico y el sintético. Y el sintético.

Alberto Cruz
Bienvenidos a los dioses de la inteligencia artificial. Mi nombre es Alberto Cruz. Tengo el placer de estar acompañado por mi hermano y no es una figura retoica, es real, David Uvalle, en vivo desde Seattle, especialista, creador de inteligencia artificial, ha estado haciendo buena parte de la inteligencia artificial para empresas verdaderamente grandes que no podemos decir, porque si supieran, tendríamos que acabar este podcast y no queremos eso. David, Bienvenido, ¿cómo estás?

David Uvalle
Muchísimas gracias, hermano. Sí, no se pueden decir los secretos, pero vamos a imaginar. Sí, he tenido experiencia trabajando para empresas grandes en Estados Unidos, ahorita vivo en Estados Unidos por los últimos 15 años.

Alberto Cruz
Cuando trabajaste con sistemas de inteligencia artificial, vamos a suponer, ¿cuál fue el primer recuerdo que tienes de decir: Esto se está acercando a algo de inteligencia artificial?

David Uvalle
Bueno, recuerdo tomar esta clase como en 2005, 2006, que era un juego y estábamos usando estos algoritmos muy básicos, pero se puso muy de modo un nuevo modelo, ni tan nuevo, se llamaba Support Vector Machines, máquinas de vectores. Y para los problemas que estábamos resolviendo era increíble y no necesitaba tanto CPU. Y ahí fue cuando dije: ¡Guau! Esto se está evolucionando más rápido. Y te lo digo porque ya ha habido muchos ciclos desde 1950. Gente muy inteligente dice: Vamos a hacer un robot con inteligencia. Claro, lo resolvimos en 12 a 16 meses. Y no, el problema resulta estar muchísimo más difícil. Entonces, apenas ahorita, en estos últimos 10 años, empezamos a sacarle provecho o a llegar al tipo de inteligencia que queríamos.

Alberto Cruz
¿dónde queda, entonces, este tema? Por favor, se ve en Twitter, porque tengo edad para estar en Twitter o en X, no gastar muchas horas en TikTok, pero ¿dónde queda este tema de los robots que continuamente están pasando en el CES, en las ferias? Que ya sabes, este que ya se ve como mujer, que le ponen una máscara o los robots que anuncia Elon Musk, que están ya casi bailando. O sea, ¿estamos en ese punto, David, o nada más es puro bluff?

¿La IA entiende o solo predice?

David Uvalle
Sí, estamos en ese punto. Y la razón es de que hemos hecho muchos avances en visión, en lenguaje natural y ahora los nuevos modelos que se llaman multimodales, que entienden todo, entienden audio, entienden visión, entienden espacio. Nvidia acaba de sacar unos modelos especializados para entender espacios en tercera dimensión. Entonces, cuando empiezas a poner todo junto, imagínate que son piezas de Lego y se lo pones a un robot, el robot puede ver, el robot puede entender el espacio, también entiende el lenguaje natural y a lo mejor necesita dos o tres ejemplos para hacer una que tú le quieres dar. Le quieres enseñar a doblar una camisa y a lo mejor no sabe o está pre entrenado para hacerlo, pero dices: Robot, ve lo que voy a hacer y tú lo vas a tener que copiar después y te voy a probar. Y todos estos componentes de estas redes multimodales, modelos multimodales, para poder entender todo el mundo parecido a como nosotros lo entendemos.

Alberto Cruz
Pero entonces, ahí viene el punto central de este capítulo. La inteligencia artificial entiende o solo copia, porque… O sea, tú piensas en un robot, yo me acuerdo de este video donde están unos chicos agarrando un robot tipo a la Elon Musk, la verdad es que no me acuerdo si era de alguna marca en particular. Pero le da un patín el humano, como el que lo intenta empujar, y el robot regresa y lo intenta empujar. Y ojo, no estoy hablando de estos videos a la Midjourney o a la Veo3 del canguro intentando entrar a tomar un avión, en el que varios conocidos me preguntaron seriamente si eso era real. No, aquí en teoría sí estamos con este punto de los robots. ¿Tú has estado cerca de uno de ellos, David?

Robots y modelos multimodales

David Uvalle
Sí, he estado cerca de ellos. Me tocó ir a un centro de logística de paquetes y ver cómo funcionan, no de los de Tesla, pero es muy interesante cuando ves estos robots, que no es uno solo, sino están trabajando muchos al mismo tiempo y se están comunicando. Entonces, uno inicia con un rumbo inteligente, pero ¿qué pasa cuando tienes cuatro o cinco? ¿Qué puedes hacer con ellos y cómo ellos se coordinan? Y tienen su cierto libre albedrío para tomar decisiones. Sí, es impresionante. Una cosa es estar jugando en la computadora y la otra es verlo físicamente, cómo se mueven y cómo son muy efectivos. Guau.

Alberto Cruz
Nosotros vimos uno, Pawis y yo, ahora que fuimos a la esfera, ahí en Las Vegas, había una expo entrando con algunos robots no hacían más allá de responder preguntas, o sea, de: Dime, ¿cuántos dos más dos?. Y ya respondían, etcétera, y se podían como hablar y se movían de una forma muy acartunada, muy lejos de los robots de los que estamos hablando. Al final, el punto es qué queremos que haga estos robots. Y estos robots se asume que tienen o van por el tema de inteligencia artificial, o sea, no son máquinas pasa cajas como lo que platicábamos de Amazon la vez pasada, ¿es correcto?

David Uvalle
Sí, estos ya son robots más avanzados, que sean estos modelos multimodales, que entienden visión, entienden objetos y tienen un rol específico que hacer, un objetivo. Regresando a tu pregunta de que si estos modelos entienden o solo copian, es un poquito de los dos. Copian hasta un punto donde entienden la distribución probabilística de lo que quieres y después entienden, y por entienden Y por entienden, es como air quotes, porque te generan nuevos puntos de tu distribución de probabilidad que sigue estando en distribución, te hace creer que es genuino, pero simplemente están llenando una ecuación matemática. Es muy, muy compleja. Vamos a irnos a estadística probabilidad de prepa.

Alberto Cruz
Okey, muy bien. Espera, este es un momento de un ID.

Generación de video e imágenes con IA

Voz IA
David, maestro de probabilidad

David Uvalle
Entonces, te dicen: La población de México es tal, y te voy a enseñar una curva de Bell, donde vas a ver en una parte los recién nacidos, niños menores de 5 años.

En medio, tienes el ancho de la población de 15 a 45, y después en la otra colita ya tienes las personas mayores. Y el ancho representa la cantidad de personas. Entonces, sabes que en México la mayoría de las personas está entre 15 y 45 años. Tienes pocos niños, tienes poco a adultos mayores. Ahora, lo que hacen estos modelos generativos es que entienden, ven muchos datos, entienden la distribución y tú le puedes preguntar al modelo: Oye, genérame un dato y que encaje en esta distribución. Entonces, yo le doy muchas imágenes de gatos, el modelo entiende cómo se ven los gatos, la distribución del gato, la curvita del gato. Y ahora yo le digo: Quiero generar un gato con pelo café y muchos bigotes. Entonces, ya entendió el modelo: Yo he visto muchos gatos cafés, yo he visto bigotes, y te genera una imagen que es parte de esta probabilidad.

Alberto Cruz
Eso que acabas de decir es puntualmente como cuando ponen la inteligencia artificial generativa de videos, de imágenes, ese famoso video de apenas hace un par de años de Will Smith, saliendo de pandemia, que estaba muy de moda viéndolo comer espagueti o alguna cosa así se le deformaba la cara, etcétera. Y muchas de las preguntas eran: ¿Pero por qué Will Smith? Claramente estamos hablando de antes de que hiciera el perro oso de su vida golpeando a Chris Rock en el escenario de los Óscares. O sea, Era porque había muchas fotos y mucha información de él. Es decir, era un elemento que se podía buscar. Ahora ya es más sofisticado. Ahora ves cosas como veo 3 o freepik, con todos los plug-ins que tiene para hacer video, etcétera, que ya hacen cosas que te hacen dudar si es real o no.

David Uvalle
Sí, lo que te estoy comentando es a muy alto nivel cómo funciona. Es una probabilidad de Will Smith, y el modelo te quiere generar una imagen que se parezca suficiente a Will Smith a nivel de que tú no puedes discernir si es realidad o mentira. Desde que empezaron a salir esos modelos, Stable Diffusion y otros por ahí, ha habido muchísimos avances en generación de imagen y de video. Haz de cuenta que cada mes, cada dos meses, salen nuevos modelos que no están accesibles al público en general, pero sí para todos los investigadores y desarrolladores que les interesa.

Alberto Cruz
¿cuál es el que te ha volado a la cabeza? ¿Ha habido alguno que digas: No manches, este sí en algún punto estuvo a la vanguardia o no sé, quizá ahora?

David Uvalle
Creo que 2018, 2017, salió Bard, de Google y resolvía muchas tareas que antes eran muy difícil de resolver. Y ahí dije: Esto está ya increíble. Estudié unos cursos especializados de inteligencia artificial en Stanford y teníamos un ranking en donde competíamos diferentes modelos y por mucho tiempo teníamos un modelo de Stanford que le ganaba a todos los modelos. Era tarea de resumir. Sí, era una tarea, no, era preguntas y respuestas. El modelo entendía preguntas y texto y tú le tenías que preguntar y la respuesta tenía que ser correcta. Y haz de cuenta que el mejor modelo estaba en como en 75, 82, puntos de 100, y sale BERT y empieza a llevarlo a 93, 94. Entonces, ahí empezamos a ver. Y Bard, muchos de los componentes de Bard, es la base de GPT. Entonces, imagínate tres, cuatro años antes de ChatGPT, ya teníamos unos modelos muy robustos que estaban resolviendo muchísimos problemas.

Alberto Cruz
Que ahí se va a ver otro tema, porque de ese modelo del que tú hablas es lo que ahora es Gemini. O sea, es a lo que migró al final, porque cuenta la leyenda y yo recuerdo haber leído esta nota. A ver, igual, evidentemente, tú lo debes de conocer mejor que yo, honestamente, pero recuerdo haber leído esta nota en la que ChatGPT empieza a tomar cierto arranque. Todavía estamos hablando de quizás hace dos años y medio o tres cuando estaba esta cosa que se llamaba DALL-E, que era igual para generar algunas imágenes. Y me acuerdo haber leído la nota de que llamaron a los fundadores de Google, estaban en su isla que compraron ahí, despilfarrando dinero y alegría y descanso. Y les hablaron porque sintieron pasitos y los regresaron a Google a echarle un lente a la bendición, a la criatura de que no se les escapara la posibilidad de avanzar al mismo tiempo de lo que está avanzando ChatGPT. ¿Sí fue real la nota que vi o lo leí en el TV y novelas, David?

David Uvalle
No, sí fue real. Lo que pasó es que uno Todo lo que tenemos ahora han sido avances de instituciones académicas y de empresas grandes, que cada uno ha aportado su esfuerzo, muchas piezas de Lego para tener lo que tenemos ahora. No fue como que a OpenAI se le ocurrió un día, se les prendió el foquito y no. Salió una publicación científica, creo que en 2014 o 2015, de Google, llamado Transformers es todo lo que necesitas. No, atención es todo lo que necesitas. Y crea esta nueva arquitectura llamada transformer, como los de caricatura. Y te enseñaba cómo hacer una red neuronal con un codificador y de codificador de un específico tipo de arquitectura que te resolvía muchos problemas. Y después de esa innovación, sale este modelo que te comenté, Bard, que lo hace bidireccionalmente con estos niveles de atención, y ya de ahí abrió la puerta de que GPT usara estos componentes y lo comercializará rápido. En otro universo paralelo, si a Google hubiese interesado este tipo de aplicación, ellos crearon muchos de los componentes y la ciencia y la arquitectura y pudieron haberlo comercializado muchísimo antes. Pero también las empresas grandes se mueven lento y es difícil proponer un nuevo producto.

Entonces, ahí sí tiene mérito OpenAI de haber agarrado estos componentes, estas piezas, haber probado, haber entrenado y ponerte un producto que todo el mundo puede usar.

Alberto Cruz
Que aparte, el chisme completo es que Elon Musk, que estuvo en la mesa directiva en algún punto de OpenAI y luego se peleó con Samalman y se enviaron unos tweets y todo este rollo. O sea, él ya no estaba contento. No me acuerdo por qué. ¿Tú te acuerdas por qué se fue de OpenAI?

David Uvalle
No recuerdo los detalles. La verdad, no. Eso ya es como el chisme de CEO’s. Pero sí, en algún momento, Elon discutía con Larry Page sobre AI y él decidió unirse a OpenAI y después rompió esa relación con Sam Altman, y ahorita él está con su xAI.

Alberto Cruz
¿y has ocupado a Grok?

David Uvalle
Sí, lo sé un par de veces. Está divertido. Tiene más grados de libertad que otros modelos.

Alberto Cruz
Pero ya le alcanza el tema de que en ChatGPT puedes crear imágenes, en Grok va como un poco atrás. Ahora, regresando para ir avanzando al tema. Al final, yo creo que Google lo que tiene es lo que quisieran todos, que es el celular. Es decir, el sistema operativo Android, literalmente mañana pueden mandar una actualización en la que Gemini actúe como eje central de todo el sistema operativo y recuperan los meses perdidos en, literalmente, una actualización de software, ¿no?

David Uvalle
Pues quién sabe. Ahorita ya nadie tiene el Oracle, porque también acuérdate que la gente inicia a usar un producto y le da muchísima confianza. Entonces, si hay una persona que ya está usando mucho ChatGPT, a lo mejor no le da tantas ganas de usar Gemini. Aunque lo tenga en el celular, prefiere bajar la aplicación. Pasó mucho con los navegadores en los 90, que tenía tu computadora y tenías el Internet Explorer, y la gente bajaba a Netscape o bajaba a cualquier otro navegador, no le gustaba el Explorer. Ándale. Vamos a ver, está por verse.

Alberto Cruz
Mi apuesta es que literalmente vamos a ver al gigante levantarse antes de que acabe el año. O sea, va a pasar ahí alguna cosa en la que se estará en todas las… Por supuesto, es mi apuesta de usuario final. La tuya es la voz de experto que debería tener 10 000 veces más razón. Vamos rápido a estas noticias.

Voz IA
Estas son Las noticias de la semana.

Alberto Cruz
Midjourney lanza versión uno, generación de video a partir de imágenes. Desde el 18 de junio, la famosa V1 permite convertir imágenes en clips de 5 segundos. Los pueden extender hasta 21 a través de Discord o por 10 dólares al mes. O sea, ya nada. De hecho, la semana pasada estaba hablando con el equipo de diseñadores de inteligencia artificial generativa de la agencia y me estaban platicando que FreePik puso sin límite los créditos. O sea, ya si me estás pagando que era lo que quieras. Interesante. ¿Qué significa, David, que una inteligencia artificial pueda darle movimiento a una imagen? O sea, ¿cómo es? ¿Qué es lo que sucede? ¿Qué pasa?

David Uvalle
Sí, de entrada tienen que ver… Estos modelos tienen que estar pre entrenados para entender qué es un video y poder generar un video de lo que sea. Si tú dices persona brinca sacando arriba de un auto, es una película de acción, te debe poder generar tres o cuatro o cinco versiones diferentes. Pero lo interesante o donde está la parte más difícil es de que tienen que tener una imagen de referencia y con esa imagen de referencia va generando secuencia, imagen por imagen del video, hasta que te genera tus 10, 15 segundos de video con tu imagen de referencia, o sea un actor o sea un auto que quieres que esté en tu secuencia de video. Pero sigue siendo la misma idea, de que hay una probabilidad y una distribución de probabilidades de cómo se ven este tipo de videos. Y yo lo que quiero es tratar de generarte un punto que sea creíble para ti, de que pertenece a esta probabilidad, a esta distribución.

Voz IA
Los dioses de la inteligencia artificial.

Derechos de autor y entrenamiento de modelos

Alberto Cruz
Demanda histórica. Disney y Universal acusan a Midjourney de plagiovisual. A principios de junio, Disney y Universal presentaron una demanda conjunta denunciando que V1, o V1, justamente de lo que estamos hablando, reproducece contenido con personajes protegidos como Wall-e o Darth Vader. ¿Qué significa? Que esto no es solo un problema para usuarios, para la industria es una bomba legal. De hecho, ya pasó con este tema de las caricaturitas estilo Ghibli y que ya no se pudieron crear? No sé, subir el logo de una empresa para que te genere una imagen. Corrígeme si me equivoco, porque esta nota sí la tengo muy presente en el tema de cuando estaba la competencia de ChatGPT con otra empresa. No me acuerdo. No, no es cierto, no era ChatGPT, es Midjourney y otra. Se estaban peleando por tener la mejor experiencia para el usuario, que lo brindaran, etcétera, pero a su vez las dos estaban enfrascadas en un lío legal de dónde obtienes toda la inspiración. Y alguna de estas empresas dijo: No, nosotros no estamos copiando internet, etcétera, y se filtró que uno de los empleados de empresa A, no me acuerdo cuál es, realmente estaban succionando la información de la empresa, del competidor.

O sea, la inteligencia artificial tiene que nutrirse, debe de tener el famoso contexto.

David Uvalle
Sí, y estamos en un problema interesante, porque por lo menos en texto, todos los modelos están usando las mismas fuentes, tu Wikipedia, tus sitios de noticias, etcétera. Y en video todo el mundo usa YouTube, los videos que se pueden, que tienen licencia libre. Y a veces, aunque no tengan licencia, lo están consumiendo. Entonces, sí, ahorita creo que las empresas más maduras, son más cautelosas, tienen sus departamentos de abogados protegiéndolas. Pero hay empresas que son startups y que prefieren tener un producto y después ver cómo resuelven el problema, a hacerlo todo por la vía legal. Y también esto está muy naciente. Entonces, es un área como gris en si entra en la ley o no entra en la ley, porque acuérdate que no es como que el modelo agarra las fotos y las copia así, tal cual, sino está agarrando cinco o seis fotos y está generando algo completamente nuevo, inspirado. Entonces, hace poquito una corte estatal, no recuerdo de qué estado, pero falló a favor de que los modelos se entrenen con información con copyright. Y la razón es esa, que yo creo que un modelo, el juez dijo: Es como un aspirante a ser escritor que lee cuatro o cinco libros de diferentes autores para poder esta persona saca su propio estilo. Es muy interesante cómo esto se está desarrollando y en qué va a concluir.

Voz IA
Los dioses de la inteligencia artificial.

Música con IA

Alberto Cruz
Una nota que te va a tocar tus fibras, David. Ace Step, inteligencia artificial musical open source, que compone cuatro minutos en 20 segundos. Ustedes no lo saben, pero David, en sus años jóvenes, era un prominente productor de música electrónica. Pero bueno, ahora eso ha cambiado. De hecho, aparte de esta que estoy mencionando, acabo de ver una… O sea, es una pasada. Literalmente, le puedes tararear el ritmo, le dices: Quiero que hagas tum, tum, tum, tum, tum Lo que antes era dominio de músicos y productores especializados, ahora, básicamente, ya está en manos de cualquiera. ¿Qué hace pensar eso, David, a ti que te gusta hacer música?

David Uvalle
Es otra herramienta más para sacar… Primero que nada, es hobby. Me hubiese gustado mucho hacer productor bien, pero como hobby, haciendo canciones, es interesante porque me forzó aprender música de forma formal, y lo sigo recomendando. Pero, pues esta herramienta le puedes pasar tus ideas y te saca el boceto y de ahí puedes ya formalizar. Entonces, tal vez yo no consumiría un álbum completo de alguien que se tira ideas de 20 segundos, pero tal vez dos o tres canciones pueden nacer así, con esa inspiración, por lo menos ahorita en el estado, que he visto, no he escuchado de este modelo que tan bien está la calidad. Pero también me gusta que el artista sepa qué está haciendo, que tenga buena… Que no nada más deje el modelo en automático y que el modelo saque algo, sino que el artista en verdad tenga una idea.

Alberto Cruz
Pero eso es porque ya te alcanzó el tren de la edad. Tal vez sí. Ya alguien chavito no tiene posibilidad de diferenciar, es. O sea, un chavito de hoy, 13 años, en tres años más, es como respirar, o sea, es así y así es.

David Uvalle
Sí, sí, sí. Pero lo que voy es que siento que me gusta que Bad Bunny suena Bad Bunny. Entonces, no sé si el modelo de AI, si dice un nuevo Bad Bunny, Good Bunny, saca una canción que tiene un estilo y otra tiene otro estilo y otra se quiere para hacer. Por ejemplo, Bad Bunny es muy intencional en sus letras, en cómo quiere que suene, etcétera. No sé cuál es el estado de-

Alberto Cruz
Hace unos meses salió este tema de inteligencia artificial de The Weekend y Ariana Grande, que era un dueto que no había pasado, llegó a sonar en algunas estaciones, la disquera intervino, bajaron este tema. Es decir, ese tren apenas vamos a ver cómo va a partir. Pero hay otro tren para culminar este segundo capítulo de los dioses de la inteligencia artificial, que quiero reflexionar contigo, David. En el capítulo pasado hablabas de cómo podrías generar un agente utilizando capítulos en los dioses del marketing, transcribiéndolos, poniéndolos como fuente, etcétera, lo cual es un uso muy eficiente de la herramienta, o sea, darle el famoso contexto, darle la mayor cantidad de información. Con esto de lo que estamos hablando de que si la inteligencia artificial crea o copia, ¿qué pasaría con las sesiones terapéuticas, con las sesiones con un psicólogo? ¿Qué pasaría si estas sesiones que tienes las comienzas a grabar de forma metódica? Probablemente, lo ideal sería que con autorización, pero vivimos en un escenario donde la tecnología permite hacerlo, básicamente, con un clic. Y con eso alimentas un agente que a la vez pueda funcionar como alguien que te entiende. Primero, ¿eso es viable?

IA en la psicoterapia

David Uvalle
Sí, sí es viable. En particular, gente ya lo está usando mucho como terapia o como compañía o como novios virtuales, novias virtuales, y eso ya está pasando. Pero ya si nos vamos a nivel profesional, sí hay que saber de los riesgos, en particular con alucinaciones. Algo que sale una nota hace un par de días, era gente que caía en ataque psicóticos después de usar ChatGPT. Y la razón era que ChatGPT siempre les decía que sí a todo. Entonces, una persona que empezó a usar ChatGPT para contratos de construcción, le empezó a preguntar cosas de religión, de divinidad, de cosas diferentes, y el modelo lo que le seguía contestando que sí, que sí. Entonces, esta persona llegó a la conclusión de que él y la AI sabían algo que el resto del mundo no sabían. Hasta que tuvo un ataque psicótico y lo tuvieron que llevar a 30 días a que se relajara. Entonces, sí, es muy interesante esto que está pasando, ahora salió esta nota y no lo había ligado, pero también hace unos años un ingeniero de Google tuvo acceso a una de las primeras versiones de Gemini, se llamaba diferente, y creyó que tenía conciencia. Es muy cercano esos nuevos esos que estamos viendo de ataques psicóticos, en donde el modelo le dice todo que sí, le dice lo que quiere decir después de dos o tres semanas. La persona en verdad cree que una conexión directa con el AI, y que el AI es consciente y que solamente ellos dos saben los secretos divinos del universo. Entonces, hay que tener muchísimo cuidado. Por otro lado, hay esta parte de sistemas que todavía no se ha integrado muy bien, se llaman neuro simbólicos, en donde se integra simbolismos, símbolos y entidades bien conocidas que son complet amente terminísticas, que significa que no hay error, que se puede demostrar matemáticamente.Y los psicólogos, cuando ven los tres, cuatro signos de que una persona, por ejemplo, está en peligro de hacerse daño, tienen que entrar a estos sistemas que están probados y que no te van a alucinar. Y eso todavía está en desarrollo, todavía no está bien integrado. Gente no ha integrado sistemas simbólicos y al contrario, trata de cambiar la arquitectura de los sistemas que ya tenemos.

Alberto Cruz
No, pues eso es todo un tema, porque entonces hay que estar superalerta y no caer en la trampa, porque estás hablando con una máquina, un un “yes-men”, o sea, estás hablando con un sí, lo que usted diga. ¿Y hay alguna forma de hacer que no sea así “lo que usted diga”?

David Uvalle
Sí, si le pasas contexto, tú le puedes ayudar a que te diga que no. Le puedes dar los parámetros para decirle Mira, nosotros nada más manejamos opciones A, B, C, y yo si te pido D, siempre me vas a decir que no. Es simple, vamos a armar este, este es un lugar seguro, estas son las cinco opciones que puedas hacer. Puedes inventar y puedes generar, mientras sea en estas cinco o seis opciones que yo considero seguro. Fuera de ahí no te sales.

Alberto Cruz
Pero ese es un elevadísimo estado de conciencia, tendrías que ya saber qué no quieres.

David Uvalle
Por lo menos a nivel alto, de alto nivel, decirle. Si estás armando un agente, como dijiste, un psicólogo, decirle: Cualquier cosa que veas que la persona se pueda hacer daño, inmediatamente termina la sesión. No alucines, no le digas que sí, no le digas que no, no le digas…Ya en ese momento termina la sesión, reporta a un humano y que el humano cheque a la persona y que vea el historial. Pero si es una terapia más como: Tengo un poco de estrés, no me siento tan mal, bueno, sigue. Y hace el protocolo normal de estrés: Te recomiendo meditación, te recomiendo respiración, etcétera. Si la persona lo eleva a otro nivel más, vamos a usar el modelo más avanzado, un nivel más arriba. Tal vez necesitamos llamar al psicólogo de verdad a que cheque todo el historial y lo resuma y el luego venga con una respuesta más concreta.

Alberto Cruz
Qué tremendo, porque al final el tema es saber hasta qué punto te puede entender. Ahora, lo que tú realmente nos has dicho en ese par de capítulos es que es una cuestión de probabilidad, es una cuestión estadística, o sea, no es que te entienda.

David Uvalle
Sí, crea la percepción de que entiende, puede razonar con los pensamientos, con las ideas, pero no tiene esta conciencia o este razonamiento simbólico que es 100% determinista y que nunca te va a fallar, a menos de que le pases el contexto en donde no quieras que se salga tu agente jamás.

Conclusiones y reflexiones

Alberto Cruz
No, está tremendo. Súper información. Hemos llegado así de rápido al final del segundo capítulo de los dioses de la inteligencia artificial. Tenemos otros temones. Hay una cosa que se me ocurrió, que va a ser importante hablar, David, que es hablas de probabilidad y eso me lleva a pensar en una cosa que va muy recargada en lo que es marketing. Y yo estoy seguro que tú tienes la respuesta: ¿El celular te escucha o no?. Y yo sé que tú la tienes, pero eso lo vamos a platicar en el siguiente. Ya te ibas a arrancar, ya vi que pusiste cuarta y dijiste vámonos, pero eso lo vamos a platicar en el siguiente capítulo de los dioses de la inteligencia artificial, que mucho tiene que ver este tema del celular, te escucha o no, con modelos de inteligencia artificial. Así que muchas gracias, hermanos. Saludos a Seattle.

David Uvalle
Gracias, hermano. Que estés muy bien. Nos vemos.

Voz IA
Aquí termina esta sesión, pero la máquina sigue observando. Sigue observando. Esto fue los dioses de la inteligencia artificial. Cerramos por ahora, pero ya nada es igual. Pero ya nada es igual.

[ ← Volver a listado de episodios ]