Cómo pedirle bien a la IA: rol, contexto y criterios | LDI #15

Introducción

Este capítulo enseña a pasar de la “respuesta bonita” a la “respuesta comprobable”. Verás cómo definir rol, contexto y criterios para especializar un agente; pedir fuentes verificables y no confirmatorias; entender la ventana de contexto y la multimodalidad; y elegir el modelo correcto según la tarea (con pistas como LMArena). Cerramos con un checklist operativo de prompts.

Episodio 15

Voz IA
Estás a punto de cruzar un umbral donde la tecnología deja de ser herramienta y se convierte en espejo. Bienvenido a los dioses de la inteligencia artificial. La inteligencia artificial. Por qué confiamos más en una máquina que en nosotros mismos? Tal vez porque la máquina no miente. La máquina no miente. Aquí no hay respuestas simples. Solo preguntas demasiado humanas. Una batalla entre dos cerebros. El biológico y el sintético. Sintético.

Alberto Cruz
Seguro Te ha pasado. Le preguntas algo a GPT o a Gemini y te responde con seguridad, pero no te dice nada nuevo. Le pides una investigación y suena a Wikipedia con maquillaje. Y cuando te pones específico hasta se lo inventa. No está solo. El problema no es que la inteligencia artificial no sepa, es que tú y yo todavía no sabemos pedirle bien muchas cosas. Hoy vamos a convertir a la inteligencia artificial en un investigador útil. Cómo pasar de la respuesta bonita? La respuesta comprobable. Qué significa darle contexto, rol y criterios? Y por qué algunos modelos parecen genios por un día y becarios al día siguiente? Bienvenidos a los dioses de la inteligencia artificial.

Voz IA
Los dioses de la inteligencia Artificial.

Por qué la IA “no dice nada nuevo”

Alberto Cruz
Hermano David Valle, Cómo estás? Bienvenido a este. Tu podcast. Tu programa. Tu canal. Muy bien, hermano. Tú que qué tal estás? Bien, todos. Oye, este es. Este es. Esto es lo que vamos a hablar hoy. Es de lo más solicitado en los capítulos. De hecho, es el capítulo más escuchado. El primero, cuando empezamos a hablar de cómo funciona pues ChatGPT o Gemini o Grok, aunque lo lo platicamos muy general en nos dabas tu eh, más bien lecciones de cómo funciona el proceso informático, Realmente algo que nos han pedido a través de las redes y los correos que nos envían a desde el sitio web, desde los dioses de la IA puntocom, pues es como aprender a usarla bien. Hay una ansiedad, hermano. Hay una ansiedad en México tremenda por mucha gente que quiere aprender a utilizar bien la inteligencia artificial. No saben, no saben, eh? Más allá del tema informático, de cómo introduces y el prompt y a dónde va y consulta, etcétera.

Vamos a abordarlo desde el lado, desde el lado que nos gusta a nosotros, no desde el lado de la investigación. O sea, hoy un usuario quiere investigar datos de la agricultura en México, etcétera Básicamente lo que nosotros platicamos en el capítulo en el primer capítulo es cuando le dices a Chatgpt oye, explícame el cambio climático, este te hace un resumen escolar, pero si le pides explícame el cambio climático como si fueras un asesor energético mexicano que trabaja para Pemex, LE Ya empieza a sonar real. Lo que cambia no es la inteligencia artificial, es el contexto que tú le das. Es correcto. Así es.

David Uvalle
Si es parte de cómo uno especializa al modelo, le da suficiente contexto y le da un rol para que el modelo pueda hacer mejores predicciones. A dada una pregunta, no. Entonces es súper importante entender. Bueno, vámonos para atrás. No? Cómo? Cómo se crean estos modelos? Qué datos utilizan? Que que intentan hacer y no nada más tratar de verlos como pues otro humano no, sino tratar de explotar en. Para qué son buenos? Para qué son esas áreas de donde pueden mejorar? Pues tratar de ayudarlos, no para tratar de tener unas respuestas consistentes lo más lo más posible del tiempo.

Elegir modelo según tarea

Alberto Cruz
Ahora, el mismo MIT ha mencionado que cambiar la la instrucción contextual de una pregunta puede mejorar la precisión de la respuesta hasta un 43%. Esto es importante, hermano, porque creo que el mal manejo de la inteligencia artificial es lo que tiene en dopado a mucha gente. O sea, agarras y le preguntas como si fuera Dios. No, O sea, desde dime los datos de la agricultura en México y cuál va a ser la proyección para el siguiente año. Pero de qué? No, O sea, visto desde qué perspectiva? Y también es importante que la gente sepa que. Pues las preguntas de Google no sirven en el tema de inteligencia artificial. O sea, no es el mismo animal pues. O sea, mucha gente usa a chatgpt o como si fuera Google, pero Google busca y Chatgpt construye o gemini o grok, de tal forma que si le pides los mejores restaurantes de la Ciudad de México te da opiniones, pero si le pides, actúa como un guía local y recomiéndame lugares según si quiero sorprender a mi novia, mi novio o impresionar a un cliente.

Te da una experiencia porque construye, no? sé. Esa es la lo lo. Lo primero es un listado. Lo segundo es una pequeña investigación aplicada. No. O sea, no claramente no es investigar restaurante Los modelos de de los LMS que tenemos hoy, hermano buscan en Internet. Es correcto. O sea.

David Uvalle
Si. Si tienen. Si pueden tener herramientas y buscar en internet para para todavía tener más contexto. Pero también acuérdate que están pre-entrenados. Entonces aunque no tuviesen acceso a herramientas, ya tienen una base de conocimientos muy robusta sobre el mundo. Ahora, si les haces una pregunta actual como cuál fue el última canción de Shakira en los últimos seis meses? Y esa información no está preentrenada. El modelo va a ir usar una herramienta como un navegador web y extraer la información en tiempo real para tratar de resumir. Ok. Y venirte con una respuesta.

Alberto Cruz
Ahora, otra trampa de inteligencia artificial es pedirle algo que confirme tu sesgo. O sea, le dices demuéstrame que el home office baja la productividad y pues claro que te lo va a demostrar, no? O sea. Pero si cambiaras la pregunta a hazme un análisis con fuentes reales a favor y en contra. Ahí es donde empieza la investigación y todo radica en hacer bien la maldita pregunta.

David Uvalle
Así es. Es. Es como dijimos. No es como el genio de la botella de que le dices Hazme rico y puf. Te quita el hígado. Ah, ya vendí tu hígado. Ahora eres rico. No. Entonces.

Alberto Cruz
Bueno, ese. Esa. Yo no lo había escuchado. Eh? Pero esta.

Rol, contexto y criterios: la triada del buen prompt

David Uvalle
Es. Es Es un ejemplo. No? De que le tienes que decir con precisión ahorita? Por lo menos las guías para crear agentes que son LLM, pero especializadas en un tipo de tareas de que le tienes que dar un rol, no? De que tú eres un experto en bla y tu tono de contestar preguntas, es super mega profesional y aparte tus tus fuentes principales de estudio o las noticias que tu crees son esta y esta no, Por ejemplo hacemos una gente que es experto en finanzas y le dices tú eres un experto en finanzas, estás a nivel de maestría y aparte tu tono para contestar preguntas, para contestar cualquier pregunta o comentario es muy profesional. Eres de los mejores, no? Y estas son tus cinco fuentes, tus periódicos? No, el Financial Times, The Economist. Nada más vas a consultar estas 7U8 fuentes son tus primordiales y también vas a leer este documentos de investigación. Entonces te voy a hacer muchas preguntas sobre finanzas, sobre un país y tú me vas a contestar Y espérate.

De hecho, deja, te especializo más. Eres experto en Finanzas de México y no solo de México. Eres súper experto en la Ciudad de México, entiendes todo cómo funciona la economía de la Ciudad de México y si te doy una súper especialización te doy una delegación en México de la Benito Juárez, sabes todo lo que pasa, no? Y vas a aprender todo. Y ahora sí, ahí te va. Una pregunta. No?

Alberto Cruz
Y cómo? O sea, cuando. A ver, espérame, porque ya me volaste la cabeza ahí. A ver, yo voy escribiendo, voy haciendo el prompt. No. O sea, este. Eres un experto en finanzas especializado en finanzas de la Ciudad de México, especializado en la Alcaldía Benito Juárez. En realidad qué sucede? O sea, a ver si logro expresar mi pregunta, porque le estás dando un papel, o sea, te informáticamente la pregunta es informática, o sea, informáticamente qué sucede? O sea, se se. O sea, es como un actor, un actor virtual te dice ah, ok, ya no voy a hacer este payasito, ahora voy a hacer este señor. O sea, cómo, cómo le haces? O sea, cómo funciona eso realmente?

David Uvalle
Si lo que estás haciendo es de que estás filtrando. Imagínate una gente como un bebé. Pero un bebé que tiene todo el conocimiento del mundo. No. O alguien nuevo con un robot tiene todo el conocimiento del mundo. Y puede ser todo. Puede ser un payaso, puede ser un académico, puede ser un profesional de industria. Tú decides qué quieres. Entonces, para ciertos casos, tú quieres un académico que te conteste las preguntas de una forma muy académica, de alto nivel para otros. Quieres un profesional industria que te dé los tips? La receta 123 Yo como profesional. Para otros casos nada más quieres jugar? No quieres preguntas abiertas? No? Entonces tienes que seleccionar qué tipo de personalidad quieres para que el modelo filtre Todos los otros casos no va a generar ya respuestas que pueden ser o muy académicas o muy de jugar. Te vas a especializar nada más. Formas profesionales le estás dando contexto de un área, finanzas, por ejemplo, no? Por ejemplo, tú quieres hacer un plan de gasto de una delegación.

Digamos que eres el jefe de la Benito Juárez. No? El jefe de la delegación. Entonces el alcalde. Entonces tú quieres saber eso? Entonces tú le estás diciendo. Bueno, tienes que ser experto en finanzas, pero eres experto en México a nivel general, es experto también en esta delegación de lo que pasa. Léete los últimos dos años de noticias Resúmelas Entiende lo que está pasando. Qué está creando las fuentes de empleos aquí? No. Y ya que sepas todo eso, ahora sí te voy a empezar a hacer preguntas. Pero ya redujiste el mundo de este agente A1A una súper especialización en donde sabes que la gente va a ser ya muy, muy efectivo. Aparte, tú le puedes dar otras herramientas. Imagínate que tú tienes información privada de la tú literal trabajas en la delegación y le puedes dar unos, unos excels, unos spreadsheets de información de gas, de los gastos que están pasando, se los puedes dar a la gente, no? Y entonces esta gente ya va a tener información que nunca pudo haber encontrado ni en entrenamiento ni en internet, porque no es información pública.

Esa información nada más privada, es información real. Entonces, ya con esa superespecialización, contexto, rol, vas a esperar buenos resultados de la gente y aún así, esa es nada más cómo estás construyendo la gente, Lo tienes que probar, le pones un examen, haces preguntas que tú ya sabes la respuesta, tú lo pruebas y este Y si pasa, digamos, 80 o 90% de tus preguntas, Tú decides. Creo que puedo poner este agente de producción. No. Y cómo ser un agente de producción? Yo soy el especialista en finanzas de la delegación y cuando tengo una duda le voy a preguntar a él por una segunda opinión. Yo ya tengo que tener mi opinión de este. Es donde quiero ir. Pero vamos a ver qué dice esta gente, no? Si confías en él en algún punto, pues ya lo vas a dejar que autónomamente haga algunas tareas, no.

Voz IA
Los dioses de la inteligencia artificial.

Alberto Cruz
La gente dice Ya me entendió mejor. Creo que es más directo. Algunos despistados que manejan cloud aquí en México que no tienen tanta penetración, suena más humano. Y todos tienen razón. O sea, cada modelo tiene su propio acento mental, por llamarlo de alguna forma, no? Algunos entienden mejor el contexto, otros la emoción o el tono. Lo importante no es, no es cuál usas, sino cómo le hablas. O sea, el Lo que nos está diciendo David es cómo puedes generar y perfilar a un agente. Lo puedes alimentar con información. O sea que no esperes que vaya totalmente a internet a traerte la respuesta. Repito como pues como si fuera este Jesucristo, no? O sea, desde. O sea, porque al final, y esto es bien importante Avalar que todo lo que esté en Internet es correcto es una tontería. No se entiende que, por ejemplo, Grok tiene una un alto nivel de respuestas, pero porque saca mucho contenido de la misma plataforma X que todos sabemos que tampoco es que brille por su eh, ecuanimidad.

De hecho, ya se ha metido en líos grok por ponerse de un lado de la historia, no de de de algunos contrincantes, etcétera. Qué es lo que hace David? Que cada modelo piense diferente Si el texto es la base, O sea, todos escribimos, todos escribimos. Qué es lo que hace que cada modelo piense diferente?

Rol, contexto y criterios: la triada del buen prompt

David Uvalle
Vamos a empezar de que la mayoría de los modelos están basados en la arquitectura del transformador y en base a esa arquitectura que es la central, hay varios tipos de construcción y de entrenamiento de estos modelos, pero en lo más básica estoy hablando de GPT. Versión dos. La última que fue pública y abierta. Dices Hoy tengo datos de entrenamiento y lo primero que quiero que hagas es de que trates de predecir la siguiente palabra. Dado un texto, tú vas a predecir la siguiente palabra. Se llama entrenamiento autónomo. Después de que aprendes a hacer eso con millones de de de textos. Ahora yo te voy a dar preguntas y yo sé las respuestas y te voy a hacer las preguntas y te voy a calificar Qué tan bien está tu respuesta? Eso se llama entrenamiento supervisado. Y todavía después de eso, yo voy a contratar un grupo de personas. Las personas te van a hacer preguntas y ellos van a calificar. Qué respuesta es mejor? No? Y eso se llama reforzamiento de aprendizaje con ayuda humana. Entonces hay varios pasos en donde los modelos pueden variar, aunque usan el mismo motor.

No. Tú, por ejemplo, pones en el caso de Groc que uno de los objetivos es de que no fuese pues que no fuese tan políticamente correcto. No, no, tú podrías contratar a un grupo de 50 personas y les dices Mi objetivo no es que seas políticamente correcto, es de que seas, que tengas opinionado, no? Entonces en los modelos se pueden entrenar Chatgpt Creo que se pueden entrenar igual y en el último, en el último paso de entrenamiento, en el de los humanos, los humanos lo alinean para que sea más agresivo que chatgpt. Entonces hay un componente humano de cómo realinear tu modelo si tú quieres o hay un componente de arquitectura. Y también influye mucho el componente de los datos que le des, no? Y también cómo haces el el muestreo de datos, de donde, a qué datos les das más importancia. Entonces sí importan los datos, importan. La empresa importa el objetivo que quiere hacer esta empresa importa el entrenamiento supervisado importa el entrenamiento no supervisado, importa la arquitectura y también importa el componente humano.

Si usan humanos para alinear el modelo, todo hace que haya mucho, muchos grados de libertad para diferentes sabores de modelo. Uno es experto en programación, otro es experto en en no ser políticamente correcto, otro es el comercial, no el otro es el competidor del comercial con otras arquitecturas de exploración.

Alberto Cruz
Ahora, bueno, entonces con más razón. O sea, la próxima vez que le pregunten algo a una inteligencia artificial, recuerden que no están hablando con una persona ni con Google. O sea, escuchen todo lo que acaba de decir David respecto a realmente con qué estamos hablando, con qué cosa, O sea, cuál es el el animal al que le estamos preguntando cosas para que tengan un mejor uso de estos cerebros digitales. Así que vamos a la siguiente sección.

Voz IA
Los dioses de la inteligencia artificial.

Verificación y fuentes

Alberto Cruz
Cuando tú hablas, las palabras tienen significado. Cuando la inteligencia artificial te escucha, las palabras se vuelven números. Cada palabra se convierte en un en un vector, en una coordenada, en un mapa de de miles de dimensiones donde perro está cerca de animal y lejos de computadora. Lo que hace el modelo es navegar ese mapa para, como decía David, para predecir la siguiente palabra más probable. Así de simple y de impresionante. Yo cuando intento explicar esto, David, les digo te acuerdas cuando escribes en Google y te sale el autocompletar? No? Si pones este David Ovalle es y te aparece rápido este un genio, desarrollador, ingeniero, etcétera. Ese es un proceso muy parecido, no? O sea, vaya en el en la simplicidad. Es correcto?

David Uvalle
Sí, En la forma más simple de explicar qué está haciendo este módulo, está tratando de predecir la siguiente palabra. La siguiente frase. Dado un previo contexto, esto es lo que están tratando de hacer ahora. Si nos vamos a las complejidades de que sabe el modelo, va a poner atención a qué palabras pesan más y qué palabras se pueden ignorar. Y eso es lo que está haciendo. Estos modelos de atención que trabajan con la arquitectura transformador es lo que está haciendo que estos modelos estén funcionando tan bien. Tratar de saber qué palabras hay que ponerle, subrayar y qué palabras se pueden ignorar. Pero al final de cuentas, lo único que estás tratando de generar es la siguiente palabra. Ahora he escuchado muchos ingenieros lo dicen a los LLM solamente. Es como un autocompletado. No, no, no, no, no, no es un autocompletado. Hay como tres o cuatro niveles de complejidad desde que se entrenan ellos solos hasta que hay entrenamiento supervisado y hay alineamiento humano. Muchos cambios en la arquitectura. Poner atención a las palabras y mezclando todo eso en una olla, lo dejas cuatro horas cocinar y tienes tu modelo, pero no va por ahí.

Pero no es exactamente nada más autocompletador de palabras.

Alberto Cruz
Entonces Si, si. Si es este proceso que tu comentas que voy a llevar la predicción. Si predicen palabras, por qué sentimos que entienden ideas? O sea, donde donde acaba la estadística de la palabra y empieza lo que nosotros sentimos? Como me comprende la pregunta? O sea me está comprendiendo el chatgpt o el geminoid es mi amigo, o sea, tú Cómo? Cómo se hace eso?

Define el rol (experto, tono, fuentes permitidas)

David Uvalle
Dos de los componentes importantes es el componente de atención de que el modelo, dado una frase o una pregunta va a darle a cada palabra, le va a dar diferente peso. Ok, no hay palabras que les va a quitar peso. Por ejemplo, si dices el elefante rosa se quería subir al auto, no? El modelo le va a decir a él 0.1 Elefante dos es el sujeto, no el elefante rosa. Pues no me importa si el el color, la verdad. 0.2 Se quería subir a un elefante en un auto. Entonces el modelo le está. Le está parpadeando. Elefante! Auto. Elefante. Auto. Entonces. De qué estás hablando? Estás hablando de Dumbo? Estás hablando ya? El modelo está teniendo esa inferencia de en todo mi conocimiento. Preentrenado. No es imposible. Sé que hay una parte que es imposible en el mundo real. Meter un elefante. Un auto. A menos de que sea un gran camión para transportarlo o que sea un elefante bebé. O estás hablando de ficción.

y en mi conocimiento ya entrenado en datos de Disney de la página de Wikipedia. Y está Dumbo y se mete a un auto cuando era un elefante payaso, no? Entonces ya estás cortando todo el entendimiento, todo el conocimiento del mundo en tres o cuatro o cinco categorías. Y eso, como humanos, nos da esta ancla de decir Creo que me está entendiendo. O sea, creo que está pasando eso. Plus, contratas estos 50, 60 personas y les haces la misma pregunta del elefante. Y la mayoría de la gente te responde 75% Estás hablando de Dumbo? No de de una de Disney. Y el otro te dice No estás hablando de transporte elefantes en zoológicos. Y entonces ya estás realineando el modelo para lo que la mayoría de la gente va a contestar. El modelo ya tiene un buen un buen modelo del mundo. Más aparte les ha de poner atención a palabras importantes. Todavía los humanos lo realinean cuando te llega a ti la respuesta final, y es algo que está como 85%, 95% cercano a lo que traías en la mente.

Ahora, eso nada más con los datos pre entrenados. Si le dejas al modelo que usa herramientas y hace una semana acaba pasar un un incidente que un elefante se lo estaban llevando en un camión y el elefante se volvió loco y abrió la puerta y se fue corriendo. El modelo va a agarrar, va a jalar esa información y luego le va a dar todavía más importancia, no? Entonces te va a decir Estás hablando del elefante, que es una semana. Se escapó cuando iba en el camión. Oh, sí. Cómo supiste? Creo que me entiende.

Ventana de contexto y sesiones largas

Alberto Cruz
Guau. No. Pues está tremendo, eh? Porque ese raciocinio que acabas de hacer hace que la gente pueda entender. Sí. O sea, a quien le está hablando Es que, reitero, yo lo que he visto notablemente es que hay una ansiedad por creer que es cuasi Dios. O sea. Y le puedo preguntar y me va a decir grandes ideas y le y le puedo decir y me va a solucionar mi negocio. Una de las cosas que más preguntan y que más nos han buscado algunos clientes en las últimas fechas es cómo pongo la inteligencia artificial en mi negocio? No, O sea, y lo hemos platicado en otros capítulos, hay cosas que sí pueden entrar a modelos de inteligencia artificial y hay cosas que el Excel sigue sosteniendo al mundo, no? O sea, el Excel sigue siendo la piedra que sostiene todo. Ahora. Uno el tema más recurrente es y ya lo platicamos porque de hecho fue un tema súper largo los tokens, pero lo voy a simplificar. La inteligencia artificial no recuerda todo de lo que hablas, o sea, tiene una.

Como ya nos había enseñado David, el nombre correcto era Ventana de contexto, que es un límite de memoria a corto plazo. Si tu conversación o investigación es muy larga. Olvídalo del principio. Por eso a veces parece que va perdiendo el hilo. Las empresas de inteligencia artificial lo que están haciendo es tratando de mejorar o ampliar ese esa ventana de contexto para que puedas tener conversaciones más largas. Porque cuando tú inicias una plática, consulta el todo de lo que alcanza a ver. Es correcto esa consulta? Por eso a veces se tarda.

David Uvalle
Se tiene que leer todo tu contexto y lo usa para darte la siguiente respuesta.

Multimodalidad en la práctica

Alberto Cruz
Es correcto. Entonces los nuevos modelos ya no solo leen texto, ven imágenes, escuchan audios, analizan videos. Eso es lo que hemos platicado en el programa anterior. Y bueno, en este que de hecho va de de refilón la multimodalidad, no? La capacidad de entender varios tipos de información al mismo tiempo. Por ejemplo chatgpt le puedes poner una imagen y conversar sobre esa este, sobre esa imagen. Gemini es más robusto. O sea, agarra imagen, video, código. Al final es de Google Grok, procesa texto y de hecho procesas imágenes desde X. O sea, el tema de que dejas, o sea, ves una imagen en Twitter, bueno, en X, en Twitter. Hombre, no? Y lo oprimes con tu dedo y la imagen se anima. Entonces, digamos que antes la inteligencia artificial era un estudiante que solo leía libros, ahora es uno que además ve videos, escucha conferencias y todo al mismo tiempo. Cómo se combinan todos estos sentidos, por llamarlo de alguna forma, en un solo modelo?

Es el Es el mismo cerebro, por ejemplo, imaginativo, claro, no es el mismo cerebro procesando texto e imagen o son módulos distintos los dos?

Contexto mínimo viable (datos, alcance, límites)

David Uvalle
Puedes hacer los dos dependiendo como en otro episodio que platicamos puedes tener un modelo que es muy experto en audio y ese lo quieres dejar que nada más en audio, pero quieres hacer un modelo multimodal que entienda texto e imágenes. Y también puedes hacer eso o uno que sea texto, imágenes y audio y tenga una mejor representación ideal. O lo que tratamos de buscar es un mega modelo fundamental que te entienda cualquier modelo, modalidad y cualquier cualquier tarea, pero a nivel a nivel académico, a nivel de ingeniería normalmente no es el caso, no? Cuando entrenas mucho, el modelo en un área es muy fuerte, en otras áreas no es tan fuerte, no? Entonces tienes que llegar a un buen balance. Pero por ejemplo, un modelo de OpenAI Openclip Tienes texto y tienes imagen. El texto dice literal gato y tienes la imagen gato, no? Entonces puedes entrenar pares perro y una imagen de gato. Y esa imagen está. Sabes que está mal. No. Entonces el modelo usa una función de contraste para tratar de contrastar el texto con la imagen y en base a los dos.

Crea un nuevo, una nueva representación, que es un vector que representa a los dos. Entonces yo con ese modelo ya lo entrené y le pregunto Enséñame gato en imágenes y pum! Me sale imágenes de gato. No, pero puedo hacer la otra, la otra forma. Le pongo una imagen de un gato y me sale texto describiendo al gato. Este es un gato muy bonito. Este es un gato. Enséñame 15 textos describiendo el gato porque ya aprendiste qué tipo de gato es. Entonces ahora imagínate esto que lo escalas a diferentes formatos como texto, audio, video, imágenes, un formato propietario. Todo esto lo puedes hacer y el modelo va a tener una representación semántica de lo que de lo que tú quieres.

Razonamiento en cadena (Chain-of-Thought)

Alberto Cruz
Ok. Ahora los modelos más nuevos. Y esto es importante porque ya lo lo lo hemos hablado los modelos más nuevos de los ajustes que van haciendo en gaming y etcétera ya no solo se limitan a predecir una palabra. Nos platicabas en un capítulo que aprenden a un proceso de pensamiento y reitero o sea, lo has dicho de otra forma, pero lo estoy tratando de traer a lo terrenal, eh? Hay un proceso de pensamiento que es el el el razonamiento en cadena, no? Que es como si antes te dijeran solo la respuesta final y ahora te enseñan el proceso que lo lleva ahí. De hecho a mí me encanta, me fascina en Chatgpt y en Grok ver. O sea, le doy clic cuando dice procesando, le doy clic para ver qué está procesando. O sea, me vuelve loco el tema de cómo eh, a través de palabras parece que alguien está pensando, o sea, puedes pensar que está pensando y estás viendo el proceso de ejemplo. Lo acabo de ocupar la semana en la semana para hacer una investigación de unos géneros musicales.

No vamos a poner que es de un Está haciendo una investigación de cómo inició el rock y en qué momento se juntó con la música electrónica. Entonces yo, después de haberle dado el papel, o sea el papel de tú eres un experto en música que conoces de tendencias y conoces la historia de la música, etcétera. LE Le hice la pregunta y entonces empiezas a ver bueno, este cuate quiere, o sea ejemplos, empiezas a saber cuando procesa este Alberto lo que quiere es conocer la historia del rock, pero no de todo el rock. Él solo se está preguntando del rock que se junta con la música electrónica. Entonces descartaré todo lo que es rock, que no se junta con la música electrónica y luego sí, y empiezas a ver cómo viene un proceso de pues sí, de perdón que lo diga de esta forma, pero de pensamiento, que es lo que te da la la respuesta. Y yo creo que de repente para la gente que quiera hacer investigación en. O sea que la quiere ocupar a un LLM para hacer alguna investigación en su trabajo.

Si valdría la pena que le dieran click al cuando dice pensando porque muchas veces ahí queda bien claro lo que está mal en las preguntas que nosotros hacemos. Porque si he llegado a cachar el tema cuando descarta por ejemplo, en este mismo ejemplo que me descarta el rock que no cruza con electrónica, digo no, no, no, espérate. Pero o no me entendió esta madre o yo o o yo lo escribí en totonaca porque yo quería todo el rock. Entonces tengo que replantear mi pregunta para decirle no, a ver, dame todo el rock, si no, luego la gente se la pasa diciendo es que ya no me responde como antes, es que este esta madre ya la actualizaron y ya no sirve. Al final las inteligencias artificiales no investigan por curiosidad, investigan porque las entrenan para hacerlo, no? O sea, y eso es importante. O sea, los entrenan para investigar y las entrenan para darte la razón. Es correcto, David?

Cierre práctico: cómo pedir bien

David Uvalle
Muchas de ellas sí Saben que los humanos están más felices cuando las personas en general cuando les dan la razón. Entonces por ella, por eso te van a decir Ah, sí, claro que sí, tienes razón, etcétera No te van a detener. No es un problema de alineamiento que tenemos que ser más objetivos y menos sesgados. Ahora, súper tip para empresarios y ojalá que nos puedan hacer un corto de esto. Hay un sitio web que se llama LLM Arena y ahí salen todos los LLM y te dicen qué tan buenos son en diferentes pruebas pruebas matemáticas, pruebas de razonamiento, pruebas de lógica, pruebas de de resumen de texto, pruebas de arte, todo eso existe. Entonces uno puede ir cada vez que sale un nuevo modelo, Se compite en todas estas pruebas, no? Algunos pasan los exámenes de matemáticas, otros no? Entonces, dependiendo del trabajo que tengas en mano, el proceso, tal vez te conviene usar un modelo para cosas de arte, narrativa y comunicación y usar otro modelo para programación y usar otro modelo para problemas densos de matemáticas.

No, no todos los modelos son iguales. Algunos son más fuertes en algunas áreas que otras. Entonces, si yo soy un empresario, tengo un caso de uso, tengo un proceso y quiero saber que LLM usar. Lo primero que voy a hacer es me voy a meter a LLM Arena LLM Marina para ver en qué área. Mi LLM está fuerte, no? Y si encuentro otra que esté fuerte en esa área que quiero, lo voy a probar. Regresando al cadena de pensamiento, no creo que muy chistoso. Lo descubrieron que le hacían una pregunta, Contestaba mal y decía Piensa más, tómate todo tu tiempo, pero tu respuesta está mal. Piénsale bien, no? Y ahí se dieron cuenta que oye, le puedo decir. Sabes que piensan mejor. Vas a tener más tiempo para pensar. Trata de romper el problema en partes. Resuelve todas las partes y después trata de resolver el problema. Ya se empezaron a dar cuenta de que siguiéndole, preguntando al del problema, eventualmente te va a hacer un razonamiento más completo.

Alberto Cruz
Wow! Si, de hecho, por eso esta es la velocidad de respuesta. O sea, tu puedes optar por una respuesta rápida en grock en Chatgpt o puedes optar por este que le que le invierta más tiempo a la a la respuesta. O sea, como usuario puedes hacer eso ahora Ya por último hermano, ya para para cerrar. Por ejemplo, para investigación es sabido que Perplex City es una buena opción, pero porque en realidad Perplex City ocupa pedacitos de otras de otros LMS. O sea. Es decir, dependiendo tu pregunta o lo que quieres investigar, va recargándose de alguna forma en un modelo o en otro. No, esos ya son las las inteligencias que colaboran entre sí por llamar de alguna forma, no?

David Uvalle
Sí, sí. He escuchado cosas muy buenas de ti también. Pero también el caso es de que tú también puedes usar tu cualquier el elem que tengas acceso y decirle Hey, quiero que uses estas fuentes como tu fuente general, no? Entonces ya tienes una base. Una fundación? Si en verdad sabes que? Qué área quieres explorar? Y si no? Si nada más es exploración, pues puedes usar otras LLM. No. Entonces como depende. Qué tipo de investigación? Qué tipo de documentos científicos, Investigación en general, Investigación de mercado. Te vas a encontrar unas que son mejores, otras que no son tan buenas.

Alberto Cruz
Pues ya le diste tu Avala LLM Arena, eh? Lo vamos a poner en todas las redes eh? Para que la gente pueda saber que hay de entrada otros modelos y que cada uno esté especializado. Muchas gracias, hermano. Hemos llegado al final de este capítulo. Que recuerden que estos son para que les gire la rata y entiendan cómo poder hacer mejores preguntas, hacer tener mejor provecho, Tener, Eh? Mmm. Pues la abstracción de que es el tema? A quién le estoy preguntando cómo me va a responder? Y eso es muy importante, hermano. Muchas gracias David. Algo que quieras agregar para la gente que escucha los dioses de la inteligencia artificial?

David Uvalle
Muchas gracias por escucharnos. Y muchas gracias a ti, hermano. Nos vemos Hasta la próxima.

Alberto Cruz
Nos vemos. Escuchen el siguiente capítulo de los dioses de la inteligencia Artificial.

Voz IA
Aquí termina esta sesión. Pero la máquina sigue observando y observando. Esto fue los dioses de la inteligencia artificial. Cerramos por ahora, pero ya nada es igual. Ya nada es igual.

[ ← Volver a listado de episodios ]