Introducción
Alberto Cruz y David Uvalle recorren la historia y la práctica de las redes neuronales: desde la prueba de Turing y el perceptrón hasta el deep learning moderno, explicando cómo se entrena (penalización y backpropagation), por qué necesita tantos datos y cómo los Transformers y el mecanismo de atención cambiaron todo. Además, nombres y líneas de investigación a seguir.
Episodio 8
VOZ IA
Estás a punto de cruzar un umbral donde la tecnología deja de ser herramienta y se convierte en espejo. Bienvenido a los dioses de la inteligencia artificial. A los dioses de la inteligencia artificial. ¿Por qué confiamos más en una máquina que en nosotros mismos? Tal vez porque la máquina no miente. Que la máquina no miente. Aquí no hay respuestas simples, solo preguntas demasiado humanas. Una batalla entre dos cerebros, el biológico y el sintético. Y el sintético.
Alberto Cruz
Bienvenidos a los dioses de la inteligencia artificial. Voy a sentir, si ustedes están viendo esto en video, que voy a poder ser delatado fácilmente porque me acabo de poner unos lentes debido a que ya mi vista está a 8 bits, o sea, Ya estoy viendo a David así en cuadritos, pero los lentes siempre delatan lo que estás viendo. Siempre delatan cuando cambias la pantalla, cuando estás viendo porno en vez de estar en el Zoom. David, vaya hermano, bienvenido a los dioses de la inteligencia artificial.
David Uvalle
Hola, mi hermano, siempre un gusto estar contigo.
Alberto Cruz
Oye, cuando haces videollamadas, ¿has visto lo que reflejan los lentes de las personas?
David Uvalle
Fíjate que no he puesto atención, la verdad.
Alberto Cruz
Yo, la verdad, soy superclavado con eso. Cuando traen lentes, digo: Hijo, ahorita sí te voy a caer, caray. A ver si sí estás poniendo atención o estás haciendo otra misión.
David Uvalle
Ya voy a empezar a poner atención, yo creo.
Alberto Cruz
Bueno, vamos a iniciar.
VOZ IA
Los dioses de la inteligencia artificial.
Stanford y la ruta académica de David Uvalle
Alberto Cruz
En tu trayectoria académica, David, recuerdo que una de las cosas más recientes que hiciste fue pasar una de las últimas misiones en Stanford, ¿es correcto?
David Uvalle
Sí, hice unos estudios de posgrado en Stanford, completamente enfocados a inteligencia artificial, deep learning, machine learning y reinforcement learning, que son diferentes variantes de lo mismo, de inteligencia artificial.
Alberto Cruz
Pero, ¿qué es? O sea, vas allá y qué te enseñan o qué platican? O sea, llegas y dices: Profe, ¿qué hay?
David Uvalle
Como cualquier escuela, una universidad, el único problema o lo interesante es que estás de las mejores del mundo, por lo menos en computación, entonces la barra está alta para pasar un curso, sí hay que estudiarle bastante y te enseñan de todo. Empiezas con tu papel y lápiz y hacer ecuaciones, probabilidad, estadística, cálculo, historia de inteligencia artificial, el uso responsable y ético. Y te dan muchos proyectos de programarlos. Tienes que crear tus propios inteligencias artificial. Uno muy interesante que hicimos fue un Pac-Man. Entonces, si te pones a pensar, creo que es desde los 80 el juego, o tal vez en finales de los 70, pero tú tenías que ser un Pac-Man con inteligencia artificial que le gane a los fantasmas. Entonces, ese es el proyecto y hay muchísimos métodos para tratar de resolver el juego. Y, pues, invéntate uno, otro…
Alberto Cruz
¿y pero qué es lo que van? O sea, vaya, la finalidad es que aprendas a… ¿A qué?
David Uvalle
Y aprendas a saber, primero que nada, qué problemas puede resolver con IA. Y después de que sabes que el problema lo puede resolver y lo puede resolver mejor que con otro método, qué método de IA es bueno o es el más eficiente, más óptimo para resolverlo o no. Y después resolverlo y presentarlo.
Alberto Cruz
Y eso como una maestría cualquiera. O sea, debías de tener un tipo de especialización previa o vas, te inscribes y pagas y se arma? ¿Cómo es?
David Uvalle
En general, te pedían que vinieras de un campo de Matemáticas o Ingeniería. De otra forma, te hacían cursar otros cursos para que tuvieses la preparación más básica en Matemáticas, Cómputo, Programación. Y después ya puedes cursar estos cursos avanzados, estos son cursos de maestría. Entonces, yo tengo mi licenciatura en Ingeniería en Sistemas de la Universidad de las Américas en Puebla. Entonces, eso me abre la puerta para poder entrar a Stanford y una carta de recomendación para que te tomen en cuenta.
Alberto Cruz
¡órale! O sea, una carta de O sea, eso está tremendo.
David Uvalle
Sí, muy interesante, porque tú tienes que escribir tu carta. Bueno, yo no hice eso en México cuando hice la universidad, pero aquí tú tienes que escribir una carta diciendo por qué quieres entrar a la universidad. Y aparte, necesitas alguien más que te recomiende. En ese tiempo, creo que el jefe de mi jefe le pedió el favor y me escribió una muy bonita carta para que me dejaran entrar a la universidad. Pero es un proceso muy estandarizado.
Alberto Cruz
Y aquí viene una pregunta loca: ¿Y quién revisa esa carta? ¿Un humano? ¿Inteligencia artificial?
David Uvalle
No, esa carta la escribió un humano y yo también escribí mi carta.
Alberto Cruz
No, que quién la revisa. Ya llegas tú con tus cartas y que las mete en un sistema o
David Uvalle
No, lo revisan los…Hay un comité para aprobar a los estudiantes, entonces el comité de profesores uno a lo mejor lo revisa y decide que es una buena carta, que tú vas, es un buen alumno potencial.
Alberto Cruz
Eso está impresionante, porque ese trayecto que has tenido tú ya, aparte creándote más de inteligencia artificial y todavía especializándote más en tema, ¿qué especialización obtuviste al final? Evidentemente, tú ya lo hacías en tu día a día, en tu trabajo, en las empresas mundiales en las que has estado con las responsabilidades globales que has tenido. Pero, ¿en qué te especializó esto?
Enfoques: ML, deep learning y reinforcement learning
David Uvalle
En redes neuronales. Se llama deep learning o aprendizaje profundo. Y es como tratar de estas redes neuronales para resolver problemas de texto, de imágenes, de video y de diferentes formatos.
Alberto Cruz
Deep learning. Entonces, llegamos al punto, al capítulo Cumbre. ¿Qué son las redes neuronales?
VOZ IA
Los dioses de la inteligencia artificial.
Alberto Cruz
¿qué son las redes neuronales? ¿Qué es el deep learning? ¿De qué has estado hablando durante ya básicamente 10 programas, 11 programas? ¿De qué hablas? ¿De cuáles redes?
David Uvalle
Mira, antes de irnos a las redes, vámonos a una cápsula de historia.
VOZ IA
Clases de historia en los dioses de la inteligencia artificial.
David Uvalle
Esta traje mis notas que escribí con lápiz y papel.
Alberto Cruz
Ay, cabrón, a ver.
¿Qué es una red neuronal?
David Uvalle
Pero siempre los humanos hemos querido usar tecnología. Desde que aprendimos a usar el fuego, hasta que empezamos a arar el campo, tratamos de hacer nuestra vida más fácil. En particular, los griegos soñaron con los autómatas, que eran estos como herramientas semivivos que ayudaban a los dioses, los protegían. Había uno que era Talos, que protegía la isla de Creta. La tradición judía, creían los golems, en los que un rabbi podía invocar a otro como robot de barro que podía defender a la comunidad. Siempre hemos querido robots, siempre hemos querido como algo inteligente que nosotros creemos y que haga lo que nosotros queremos. Ya más adelante, en los 50, está Alan Turing, que hizo muchísima investigación y definiciones del cómputo que usamos hoy en día, y fue de la gente que estableció la prueba de Turing. La prueba de Turing se trata de hablar con otra entidad y saber si es una computadora o no. Y tú no sabes, estás en un cuarto y no puedes ver a la otra persona. Entonces, empiezas a hablar, empiezas a hacer preguntas y al final te preguntan: ¿Es computadora o es otra persona?.
Perceptrón, clasificación vs. regresión
Y si no sabes, si dices: Creo que es persona y es computadora, ya pasó esa computadora a la prueba de Turing. Y ahorita, con algunos chat bots, estamos llegando a ese nivel en donde las personas no saben si es una persona o un robot, una inteligencia artificial. La definición de inteligencia artificial es en 54, conferencia de Darmot. Y personas interesantes que mencionar estaba John McCarthy, Alan Turing, Marvin Minsky y Claude Shannon. De ahí viene también el nombre de Claude. Ya más adelante, hicieron esta conferencia y todo el mundo dijo: Nosotros somos los más inteligentes, esto lo podemos resolver en un año. Y no pudieron. Pero ya de ahí teníamos esta idea de un perceptrón, que es un artefacto matemático que dado ciertos datos para entrenar, te va a dar una solución a tu problema. En particular, se usaba para dos tareas fáciles, que una es clasificación y otra es regresión. Clasificación es de que yo te doy datos de si es un gato o un perro, y después te muestro un gato y tú me tienes que decir que es un gato. Y te muestro un me tienes que decir: No es un gato.
Entrenamiento: función objetivo, error y backpropagation
No sé qué es, pero no es un gato. Y regresión es de que te doy datos con tiempo, por ejemplo, el valor de las acciones o el precio del petróleo en México, y tú tienes que estimar qué va a pasar en el tiempo futuro. Esos dos tipos de problemas que ya se han resuelto estadísticamente por mucho tiempo, pero lo querían hacer con este artefacto, el Perceptron. Inspirados en cómo creemos que funciona el cerebro, Tenemos redes neuronales, tenemos neuronas. Cuando sentimos dolor o placer o tocamos algo o vemos algo, parte de estas neuronas mandan activaciones con electricidad. Y entonces, ahí se dicen de que hay partes del cerebro que esté estimulado cuando estás viendo una imagen, hay otras partes que lo estás escuchando, etcétera. Ahora, te mando esta idea, no es completamente… Estamos haciendo exactamente lo que es el cerebro. Es un artefacto matemático, una abstracción de cómo funciona en la biología. Pero una red neuronal no es nada más que un aproximador general de cualquier función matemática. Ahora, ¿qué significa todo esto? Tú defines varios números aleatorios, usas capas, que básicamente son capas de números, capa uno, capa dos, capa tres. Y normalmente, vas reduciendo el de neuronas en cada capa.
Inicias con los datos de entrenamiento y la red neuronal, como usa puros números aleatorios, te va a dar error. Tú le dices: Oye, ¿es un gato?. Y la red neuronal lo ve, no sé. Entonces, pasa tu información por la red cuando está iniciando y como tú sabes que si es un gato o no es un gato, tú eres el que le estás enseñando. Como mano le dices: Hey, Red, ¿estás mal?. La tienes que penalizar. Y en particular, penalizas todos los números aleatorios que influyeron en la decisión de que no fuese un gato. Entonces, repites el proceso otra vez, otra imagen de otro gato. Es un gato, ¿no? Y te da error. Penalizas. Es un gato, ¿no? Y te da la respuesta correcta. Entonces, ahí ya no penalizas o penalizas lo mínimo. Entonces, en base a ese método, se llama propagación hacia atrás o back propagation. Ese es el efecto clave para entrenar estas redes, que tú tienes los datos, tú sabes que es correcto y qué es incorrecto, y tú le vas mostrando a esta red, a estos números aleatorios, lo que tú quieres. Tú pones tu función de objetivo, tu función de objetivo es clasificar correctamente un gato.
Analogía con el aprendizaje humano (pero con más datos)
Y después de varios ciclos de entrenamiento, que pueden tardar horas, por ejemplo, o tardaban horas antes, ya los números no aleatorios para nada. Y hay parte de esa red que tiene unos números bien sesgados. Y otros números negativos por acá, otros números, si lo pudieses visualizar, verías claramente que hay partes de esta red que se activa cuando tú le mandas una imagen de un gato. Ahí es cuando dices: Este proceso que te digo que repites varias veces para penalizar, vas de ida y de regreso, de ida y de regreso. Se llama entrenar tu modelo de red neuronal.
Alberto Cruz
Que básicamente es como, entiendo, por lo que me cuentas, a ver, a ver si mi analogía no es que me entiendo un tema contra la humanidad, pero es como entrenas a un niño, es como educas a un niño diciéndole: Esto es una mesa, esto no es una mesa, esto se llama silla, este es papá, este es el lechero, el lechero no tiene que ver con tu mamá. O sea, te vas dando información que va almacenando el cerebro y como escucho que lo mencionas, viene una emulación. Pero no es de que tenga neuronas, o sea, la red neuronal, sino entiendo que más bien es una emulación de un proceso de pensamiento. Eso es que suena bien pinche abstracto, pero entiendo que esa es la idea, ¿no?
Eficiencia y límites: humano vs. máquina
David Uvalle
Es eso, básicamente tratar de emular estos procesos biológicos, pero con artefactos matemáticos que inician con respuestas random, porque los números son aleatorios, y después de varios ciclos de entrenamiento empiezan a aprender. Ahora, algo superinteresante con los niños. A un niño, tú le enseñas tres o cuatro autos o hasta fotos, y el niño ya va a saber que es un auto. No puedes hacer eso con una red neuronal. Si la entrenas desde cero, la red neuronal necesita miles o si no, docenas de miles de imágenes de un auto para saber qué es un auto. Entonces, se tarda muchísimo más tiempo en aprender que lo que aprende un niño. Ahí te está dando una clave que hay un componente en los humanos que es óptimo para aprender que estas redes no tienen. Nos están faltando estos componentes, no sabemos. Ahora, ahí viene la otra parte. Una vez que entrenaste estas redes con cientos de millones de imágenes de gatos, puede ser mejor que un niño y hasta un experto en gatos.
Alberto Cruz
¿y eso a qué se debe? O sea, que no hay margen al error,
David Uvalle
que el margen de error de la red neuronal ya es muy menor. Imagínate, la persona que es más experta en el mundo en reconocer gatos. Es la persona, solamente esta persona.
Alberto Cruz
La señora de los gatos.
El ejemplo del “gato en la imagen” y la especialización del modelo
David Uvalle
La señora de los gatos, pero a nivel mundial, ganó todas las competencias de gatos. El cerebro humano tiene una capacidad y límites, pero las computadoras no. Entonces, yo puedo enseñarle a mi red neuronal con todas las fotos de todos los gatos de los últimos 30 o 40 años, millones o cientos millones de fotos de gatos. Y aparte, hasta puedo modificar las fotos y cambiarle colores aquí, mover el gato para que la red entienda todavía más, rotar el gato para que lo vea en diferente forma. Después, el concurso final, pongo una foto, casi como encuentra Wally, pero lo que hago es que escondo al gato, lo superescondo abajo de una mesa, atrás de una cortina. Nada más se ve el bigotito y un ojo. La experta en gato va a ir, se va a tardar sus 30 o 40 minutos: “ah, Creo que aquí está el gato”. Pero la red neuronal no. Ve la imagen rápidamente, está superautomatizada y es experta en hacer eso. Encuentre el bigote, encuentre el ojo, aquí está el gato inmediatamente. Ahí ya le puedes decir que la inteligencia artificial superó al humano.
Alberto Cruz
Pero está muy interesante eso de este ejemplo puntual del ser humano y cómo puede tardarse un poco más buscando al gato detrás de hurgar. O si fuera una cosa impresa, tienes que estar mucho más atento. La red neuronal tiene la capacidad, entiendo, entonces, de con toda la información que ya le vas cargando, toda entera, es como si no tuviera un sesgo, o sea, como si no tuviera un límite, porque sabe que está buscando al gato, puede eliminar el resto, tratando de medio ponerle otras palabras a lo que dijiste. O sea, puede rápidamente decir: Esto no es, nos quedan estas ocho cosas, de estas ocho, estas se parece Tanto%, tanto por ciento, tanto por ciento, tanto por ciento, me quedan estas dos, seguramente es esta, pum. Pero es porque nosotros no pensamos de esa forma.
Por qué requiere millones de ejemplos y gran cómputo
David Uvalle
Así es, nosotros no pensamos. La red está tratando de aproximar cómo pensamos. La red, acuérdate que tiene una capacidad muchísimo más grande y aparte, es superexperta en esto. Por eso ahorita estábamos comparando a la señora que es la experta de gatos del mundo. Pero si pones alguien promedio como yo o como tú, que no sabemos tanto de gatos, sabemos más de perros. A lo mejor ni siquiera encontramos el gato. Y la red neuronal 100 de cada 100 veces va a encontrarte el gato.
Alberto Cruz
Está tremmendo porque son pláticas que te llevan a imaginar cómo pensamos. O sea, repito, qué cañón que un sistema pueda rápidamente decir: De todo esto que tengo aquí, qué porcentaje no tiene nada que ver?. Y entonces, te vas quedando con porcentajes. El pensamiento humano Y digo, yo no soy experto en neurociencia ni neurobiología, pero entiendo que va por otros caminos, va tocando caminos de experiencia, cuál fue el último gato que viste, y si te mordió un gato, y si te arañó un gato una vez, y entonces vas creando un sesgo, y entonces pinches gatos son bien gachos, entonces no lo voy a encontrar. Y hay toda una serie de caminos que son los que te van generando las experiencias en tu pensamiento. De tal forma que con todo lo que nos estás diciendo, hermano, se vuelve mucho más complejo el tema de repente, de que no se aprecie el punto de vida en el que estamos. Es decir, en un punto de vida en el que podemos decir: Dame una animación 2D de superhéroes, porque tú viste que los superhéroes, tu mente o la forma en la que interactúas con una inteligencia artificial, asume que bajo el contexto de lo que tú estás escribiendo, la inteligencia artificial va a entender: ¡Ah!, los superhéroes que ha visto David o los superhéroes que ha visto Alberto, que no son, seguramente no es Superman, pero el ideario social implica que debe de llevar capa, uno.
¿Por qué? Porque es así la visión internacional del ideario social de un superhéroe. Pero el punto es, tú ahí puedes agarrar y decir: Ponme un gato, y ahora que el gato le dé un abrazo a un perrito y que luego se volteen y se sienten los dos a jugar dominó y se tomen una tacita de café. Todo eso es años de entrenamiento para un sistema.
David Uvalle
Pues lo tratan de paralelizar. Para un sistema de cómputo, lo paralelizas y eso que se tardaría años, si tiene suficientes computadoras, se tardan meses.
Alberto Cruz
Bolas.
David Uvalle
Pero sí, estos modelos sí se han tardado meses en entrenar. Estoy hablando con, no sé, 1000, 2000 computadoras activas o hasta más. Todo el tiempo.
Alberto Cruz
Y el camino en el que vamos en ese tema es, entiendo y corrígeme si me equivoco, es los desarrollos, lo que viene en futuro, ya en cuestión de ingeniería. Vamos a dejar a un lado ahorita al usuario final, que somos todos. En el tema del futuro, o sea, lo que se sigue haciendo de los procesadores todavía más veloces, de la forma de procesamiento más agresiva, más rápida, ¿sigue emulando lo que creemos que hace el cerebro o ya es un camino que se ha descubierto poniendo más máquinas y cada vez más máquinas es más poder?
Hitos históricos que importan
David Uvalle
Los dos. Y déjame contarte, nos quedamos en la historia, ¿no? Estábamos hablando de… Llegamos en el 54 y de ahí nos saltamos, o sea, que no pasó nada. Pero en realidad, el desarrollo de redes neuronales siguió. Sí, te estaba contando que en el episodio pasado que Jan LeCun estaba usándolo en los correos para leer las cartas y saber a dónde se tienen que mandar con estos sistemas de OCR, más una red neuronal. Pero consumen mucho cómputo. Entonces, la gente estaba buscando otras formas de resolver estas tareas, como reconocimiento de de texto, como el reconocimiento de imágenes. Ahora, lo interesante que pasó es que la mafia canadiense, que son Jan LeCun, Geoffrey Hinton y Yoshua Bengio, es porque son académicos en Canadá. Bueno, Jan está en Nueva York. Pero todos sus estudiantes estaban trabajando con redes neuronales y uno de ellos, cuando estaba haciendo su doctorado, entró al concurso de reconocimiento de imágenes con una red neuronal. Ahora, lo interesante fue que la hizo muy grande, con muchas capas y con componentes sabidos que funcionan para reconocimiento de imágenes. Entonces, a una red neuronal pequeña, con pocas capas, se le llama una red neuronal corta, no profunda.
Y en el 2012, Ilia se llama, y es de las personas más importantes, de inteligencia artificial, no es Sam Altman, no es Elon Musk, que es Ilia Sutskever. Es de las personas que… Y viene de esta mafia canadiense, agarra la red neuronal y le agrega muchísimas capas. Y entonces, Entonces, descubrió que este método de redes neuronales, que le llaman deep learning o aprendizaje profundo, ayuda bastante a estas redes a aprender. Y ganó este concurso con su red que se llama AlexNet. Y de ahí viene toda la revolución. Todo esto empezó desde el 2012, que ya teníamos el poder de cómputo con los procesadores gráficos y tenemos esta nueva arquitectura. Como ya tenemos poder de cómputo, ahora podemos incrementar la arquitectura y los componentes. Entonces, para regresar a lo que preguntas, todo esto, la innovación o lo que viene en el futuro, viene de dos formas. Uno, tratar de usar todas las computadoras y la eficiencia que tenemos y dos, tratar de usar nuevos componentes en las arquitecturas de redes neuronales y hacerlas más eficientes.
Alberto Cruz
Entonces, a ver, la suma de redes neuronales es el famoso deep learning.
David Uvalle
Una red neuronal con muchas capas, muchas, muchas, muchas, muchas. Como es muy muy grande, muy profundo, le llaman Deep Learbning, porque es unred neuronal muy profunda.
Alberto Cruz
Y en eso es donde va el famoso, lo que antes se llamaba machine learning.
David Uvalle
Machine learning es otra rama que está más basado en estadística, métodos estadísticos. Pero sí, digamos que es una parte de… En general, tienes tres palabras que se usan muy comúnmente y se pueden usar, reemplazar la mente. Pero es inteligencia artificial, algoritmos de inteligencia artificial, que son los clásicos, que se han usado en videojuegos, cuando, por ejemplo, el Pac-Man usa estos algoritmos para mover los fantasmas, desde los 80, etcétera. El punk, igual. Machine learning, que son métodos estadísticos para resolver problemas de clasificación y de regresión. Y ahorita deep learning, con redes neuronales, agarrar una red neuronal y hacerla muy profunda hasta que resuelva tu problema. Es muy profunda y le metes muchos datos, millones de datos.
Alberto Cruz
¡guau! Es que esos son como temas de ciencia ficción muy apasionantes que llegan en mil cosas que hemos visto. Porque entonces, ahora sí me voy a ir del lado del usuario, tanto Grok como ChatGPT, como Gemini, tienen una opción cuando haces una consulta más compleja. Es un botón que dice Deep Research, que en teoría te asegura que en vez de buscar en la primera capa de datos, iría a buscar información, la misma inteligencia artificial haciéndose preguntas a sí misma de ejemplos. Si yo digo: Hazme un deep research de cómo es estudiar en Stanford, entiendo, porque en algunos casos se puede visualizar que dice: Alberto quiere estudiar en Stanford, pero ¿será Stanford, Querétaro o Stanford en Estados Unidos?. Seguramente es Stanford en Estados Unidos y empieza a traer cierto tipo de información, se la vuelve a preguntar, la vuelve a hacer. Por supuesto, yo estoy hablando desde el lado del usuario, David. O sea, en lo que tú comentas, desde el lado del creador y este tema de capas es un proceso similar, supongo. O sea, cada capa significa una mayor posibilidad de cuestionamiento o de obtención de datos, algo así.
David Uvalle
Parecido, sí, es muy parecido. Mira, esto es de lo que sabemos. Podemos explicar y interpretar partes de estas redes neuronales, pero al final de cuenta, volvemos a caer a la definición, es un aproximador general de cualquier función matemática. Entonces, lo que queremos decir es que cada capa, por ejemplo, en el caso del clasificador de gatos, detector de gatos, si tú puedes abrir esa red neuronal y ver qué pasa cuando le metes una foto de un gato, lo primero que encuentras en esa red son como rayitas con la forma general de cómo se ve un gato. En la siguiente capa empiezas a ver como pelito. En la tercera capa empiezas a ver orejas. Entonces, cada capa aprende diferentes componentes de la imagen del gato. Entonces, si le metes las 80 capas, 90 capas, cada capa le está aportando algo para reconocer un gato. Y ese gato, lo padre de que no te reconoce un gato, te reconoce todos los gatos. Generaliza una función matemática para siempre detectarte gatos.
Alberto Cruz
Impresionante, porque me hace recordar estas esculturas que cuando las ves de frente, te forman una figura. Pero te vas moviendo y te das cuenta que son varios elementos metálicos que cada uno hace una capa para que cuando tú veas de frente la escultura veas un gato, para seguir en un ejemplo del gato. Pero cuando lo ves de lado, no es más que un bulto de metal, colgado. Eso.
David Uvalle
Sí, sí, sí.
Alberto Cruz
No, me estás dando un conocimiento puro, muchacho. O sea, nos has puesto a reflexionar, a entender mucho, porque vaya, de verdad, cuando uno habla del procesamiento de ideas digital, de inteligencia artificial, el solo hecho de pensar qué tiene que ver con la forma más profunda que se considera conocer de la forma en la que pensamos y que eso es lo que motiva muchas de las cosas cómo se hacen, es de locos.
Transformers y el mecanismo de atención
David Uvalle
Sí, sí, sí, sí. Bueno, regresando a la historia, ¿no? Ilia Sutskever termina con esta red en el 2012 e inmediatamente su profesor de de tesis de doctorado, Geoffrey, empieza a trabajar para Google Brain, la parte de Google que usa inteligencia artificial. Entonces, en un momento, toda esta nueva tecnología fue completamente de Google. Después, en el 2017, un investigador de Google, también, Ashish Vazwuani, publica el paper científico de Transformers, que usa redes neuronales. Están trabajando, son como piezas de Lego arriba de otra. Ilia crea lo que conocemos como deep learning, y Ashish usa una arquitectura diferente de redes neuronales para darte el transformador. Y la intuición está muy, muy bonita, porque usó un método que se llama atención a la hora de entender un texto que es muy similar a cuando nosotros leemos y ponemos atención solamente a una parte del texto y como que todo lo demás se ve borroso. Entonces, este método matemático representó esa tensión con un artefacto matemático, cambió una arquitectura de red neuuronal con un codificador, un modificador, listo. En 2017 ya tienes tu transformador. Y todas estas son las piezas: Grok, GPT, todos los nuevos modelos, los más importantes, todos están usando transformadores o variantes de transformadores.
Alberto Cruz
¡guau! No, ya empezaste a conectar todos los cables, los transformers, cómo llegamos a este punto? Está cañón. Este capítulo está muy interesante, David. O sea, falta como algunas cosas que hablar.
Quiénes seguir y por qué
David Uvalle
Para terminar con esto, si quieres saber qué va a pasar con inteligencia artificial a nivel comercial, no sigas a Sam Altman, no. No sigas a Elon Musk, no. Sigue a Ilia Sutskever, sigue a Ashish Vazwuani, que ellos son los creadores, inventores y los que nos están empujando con sus nuevas ideas a todo lo nuevo que va a pasar. Con la historia de Ilia, después de estar en Google Brain, fundó OpenAI. Y hace poco hubo una controversia porque parecía que querían correr a Sam, porque había una incompatibilidad. Ilia es de las personas más importantes. Al final de cuentas, no lo corrieron, Ilia se salió y creó su nueva empresa que se llama Safe Superintelligence, para ser una AI muy avanzada, que se asegura también, inspirado que su profesor, Geoffrey Hinton, investiga mucho en la forma ética y responsable de hacer esos sistemas. Y ahora, lo más interesante o medio trágico que pasó, que esta nueva compañía, hace dos semanas, hace una semana, Zuckerberg compró a todos, menos a Ilia.
Alberto Cruz
¿Cómo?
David Uvalle
Sí. Les ofreció mucho dinero y recursos ilimitados. Y ahora, Ilia se quedó solo y se llevó a todo su equipo a trabajar para Meta.
Alberto Cruz
Sí, de hecho vi una nota por ahí colada de que presentó como con mucho bombo y platillo a un equipo que se acababa de integrar completamente para el nuevo equipo de inteligencia artificial de Meta. Pero así como bombo y platillo, llamó a los empleados, etcétera. Pero ahora entiendo todo, o sea, vienen de un superequipo.
David Uvalle
Sí, es gente que viene de OpenAI, trabajaba con Ilia, y gente de Safe Superintelligence, que también trabajaba con Ilia.
Alberto Cruz
¿y ahora qué va a hacer esta persona o qué? ¿Va a contratar más equipo o qué?
David Uvalle
Puede contratar mucho equipo. Estuvo en Stanford, creo. Estuve en la Universidad de Montreal. No recuerdo si estuve en Stanford, pero tienen todas las credenciales académicas y también tienen las credenciales industriales. Entonces, no le va a faltar recursos ni talento para hacer sus nuevos proyectos. También, por el otro lado, Ashish creó su empresa, se salió de Google y creó su empresa que también hace agentes de inteligencia artificial. Entonces, muy interesante seguir qué están haciendo estos dos investigadores ahora empresarios, porque yo creo que ellos son los que van a sacar o ya tienen historial de sacar ideas muy interesantes que cambian toda la industria.
Alberto Cruz
Acabas de contarnos un telenovelón, o sea, de principio a fin, mientras ibas narrando toda la historia de lo que traías en tus apuntes, no dejaba de pensar en este libro que se llama Hackers. Es un librazo, que es la historia de cómo empezaron los hackers desde las líneas telefónicas, cuando Graham Bell puso la línea de teléfono, la cabina en Estados Unidos y cómo llegaba los hackers hasta la era actual, los primeros casos que se llevaron a la cárcel a principios de los albores de los años 90, etcétera. Ahorita voy a buscar cómo se llamaba ese libro, porque iba recordando esta historia y luego que lleguen, que lleven al equipo, etcétera. Novelón, ¿eh? Súper capítulo. Un aplauso. Un aplauso. Muchas gracias por traernos este volumen de conocimiento.
David Uvalle
No, no, no. Pues quería compartirlo aquí, en nuestro espacio.
Alberto Cruz
Conocimiento que no está en libros. O vaya, sí está en libros, pero no platicado.
David Uvalle
Está, pero no es lo que ves todos los días en las noticias, nada más ves de que esta persona es muy importante y dices: ¿Es verdad eso? Déjame ver los detalles. ¿Quién es el que en verdad la mueve aquí?
Alberto Cruz
Pues ya alimentamos a la inteligencia artificial con este capítulo, hermano.
David Uvalle
Okey.
Alberto Cruz
Nos escuchamos en el siguiente capítulo de los dioses de la inteligencia artificial. Gracias, David.
David Uvalle
Gracias, hermano.
VOZ IA
Aquí termina esta sesión, pero la máquina sigue observando. Sigue observando. Esto fue los dioses de la inteligencia artificial. Cerramos por ahora, pero ya nada es igual. Pero ya nada es igual.
Conclusión
Las redes neuronales son aproximadores generales que, con datos + cómputo + arquitectura adecuada, resuelven tareas antes imposibles. Entender su historia y entrenamiento ayuda a usarlas mejor hoy.