Sueldos 2026, retail con cámaras IA y redes neuronales que “ven” — Los Dioses de la IA #11

Introducción
IA ya toca tu bolsillo y tu súper: salarios y vacantes cambian, las tiendas usan cámaras 360° y sensores para detectar productos, gestos y robos, y detrás corren redes neuronales que pasan de píxeles a escenas. Cerramos con tácticas prácticas para “afinar” a tu agente (ChatGPT/Grok/Gemini) y obtener resultados profesionales.

Alberto Cruz y David Uvalle explican, con casos reales, cómo:

Episodio 11

Voz IA
Estás a punto de cruzar un umbral donde la tecnología deja de ser herramienta y se convierte en espejo. Bienvenido a los dioses de la inteligencia artificial. A los dioses de la inteligencia artificial. ¿Por qué confiamos más en una máquina que en nosotros mismos? Tal vez porque la máquina no miente. Que la máquina no miente. Aquí no hay respuestas simples, solo preguntas demasiado humanas. Una batalla entre dos cerebros, el biológico y el sintético. Y el sintético.

Alberto Cruz
En este capítulo vamos a hablar de tres cosas que te pegan directo. Primero, ¿cómo la inteligencia artificial ya está cambiando tu sueldo? ¿Y qué empleos van a subir o bajar en el 2026? Segundo, ¿cómo en el retail…? En el retail, en las tiendas. La inteligencia artificial ya te sigue con cámaras que detectan desde robos hasta el aparador que estás viendo. Y tercero, ¿qué hay detrás de todo esto? Las redes neuronales qué hacen posible pasar de ver objetos o entender historias completas en video. Si trabajas, consumes o simplemente existes en el 2025, este episodio te toca de frente.

Voz IA
Los dioses de la inteligencia artificial.

Alberto Cruz
Bienvenidos a los dioses de la inteligencia artificial, hermano David, ¿cómo estás? Qué gusto verte.

David Uvalle
Muy bien, hermano, qué gusto verte también.

Alberto Cruz
Oye, ¿cómo es una fiesta de gente que se dedica a hacer inteligencia artificial? ¿Se van la fiesta y platican de inteligencia artificial?

David Uvalle
Fíjate que tratamos de no platicar de inteligencia artificial. Tratamos de no platicar de trabajo porque toda la vida eso es lo que hacemos. Entonces, hacemos Una regla de oro es no platicar, poner los teléfonos volteados, nadie usar teléfono y platicar normal como personas para tratar de hacer buena química con tu equipo, sí es importante.

Alberto Cruz
Que supongo que allá en Seattle, el tema de irse de fiesta también implica que no puedes hablar abiertamente de cómo te va en la chamba porque son amigos que trabajan en distintas empresas, ¿no?

David Uvalle
Sí, depende del nivel en lo que estés haciendo. También acuérdate que hay mucha ciencia abierta, entonces hay muchos temas que se pueden discutir porque están públicos, entonces no hay tanto problema. Y hay gente que sí trabaja en proyectos secretos y cuando trabajas en proyectos secretos tienes que firmar un contrato aparte, y ahí normalmente no puedes tocar ningún tema, no. Puedes tocar otro tipo de temas, pero no.

Alberto Cruz
Es que es curioso porque es como plática de espías.

David Uvalle
Sí, estuve yo en un tiempo, estuve seis, siete meses en un proyecto secreto.

Alberto Cruz
No. No me puedes decir. No, claro que no nos puedes decir, por supuesto, pero no mames, qué responsabilidad.

David Uvalle
Ahorita ya les puedo decir qué hice, pero sí, no puedes decir qué haces y te dan un libreto de que cuando te preguntan qué haces, dices otra cosa completamente diferente, ¿no?

Alberto Cruz
No, no es cierto. Te dan un guion, así un… Si te preguntan qué estás haciendo, vas a decir que estás haciendo alpiste para pájaros.

David Uvalle
Ajá, porque acuérdate que estás trabajando en una empresa y mucha gente de la misma empresa te pregunta, no necesariamente porque quieran saber, sino porque tú estás pidiendo un servicio o acceso a algún componente de software y entonces te preguntan: Okey, dame la razón que quieras. Es que estoy trabajando en el alpiste para pájaros. Y ya conforme se va escalando, ya hay nombres secretos, claves secretas. Ya no me acuerdo cómo se llama. Tengo una clave chistosa. Pero ya nada más dices la clave y ya todo el mundo entiende. De que estás trabajando en el secreto de septiembre, si se llamas Amber o algo así de septiembre.

Alberto Cruz
Ajá. Está padre, porque aquí en México seguramente nos pondríamos creativos y sería los mismos a todos que le ponemos a los futbolistas, que todo es en diminutivo y gacho. O sea, la ratita González, el hamster Rodríguez, el elefante Sánchez. Acá tendrían que tener ese tipo de nombres. Vamos a empezar con el tema. Chécate nada más qué traemos.

Voz IA
Estas son las noticias de la semana.

Retail inteligente: cámaras, sensores y cobro automático

Alberto Cruz
Hoy arrancamos con algo que ya está pasando y casi nadie lo nota, hermano. En los supermercados ya no solo hay cámaras para evitar el hurto, los robos, sino que usan inteligencia artificial para leerte la mirada y hasta detectar productos vencidos. Mientras tanto, los roles laborales siguen cambiando y el sueldo y el sueldo también. Así que chéquense nada más esto. En Reino Unido, por ejemplo, Asda o Asda, está probando cámaras con inteligencia artificial en cinco tiendas que escanean los pasillos para detectar muebles vacíos o productos fuera de lugar o incluso comida dañada. Veesion, que es una startup francesa, ya opera en 5000 tiendas en Europa, Canadá y Estados Unidos. Su sistema usa reconocimiento de gestos, no de caras, de gestos, o sea, del gesto que está dentro de la cara, para identificar posibles robos y alertar al personal en tiempo real, y reportan que ha reducido robos hasta el 50%. Ahora, este tema está loco, porque ¿cómo funcionan esas cámaras, David? O sea, ¿cómo ¿Cómo se ha logrado esta cosa de la inteligencia artificial que pueda detectar hasta un gesto?

David Uvalle
Te tengo una superhistoria, porque ahí sí estuve muy cerca de ese desarrollo, por lo menos en Amazon, que fue de los primeros que sacaron las tiendas en donde puedes entrar, agarras lo que quieres y te sales, no hay nadie que te cobre. Estaba trabajando con este ingeniero que lleva 20, 30 años en la industria, estuvo en la NASA, estuvo en Microsoft, dando clases en Caltech, estuvo en Facebook y en el 2011 lo retan. Jeff le dice: Este es el proyecto, va a haber una pared.

Alberto Cruz
Jeff Bezos.

Flujo técnico: entrada, seguimiento por persona, detección de objeto

David Uvalle
Jeff Bezos. Ajá. Le dice: Este es el proyecto, va a haber una pared con insumos, con miscelánea, y tú vas a encargarte de detectarlo con cámaras, con sensores, con lo que tú quieras, para saber cuando la persona agarra un producto, qué producto es, y se sale de la tienda con el producto para automáticamente nosotros cargarlo, no, cobrarle. Se rompió la cabeza este cuate. Tenía su maestría en Matemáticas, más estos 25 años de experiencia. Fue líder de Xbox cuando estaba en Microsoft. Su título oficial era Ninja, para que te des una idea.

Alberto Cruz
¿no, manches? ¿Neta? O sea, ¿cargo Ninja?

David Uvalle
Ninja. ¿Qué haces? Soy Ninja. Sí, ingeniero distinguido, slash, Ninja. Y yo lo vi y trabajaba superbien cuando estábamos en el mismo equipo y de repente tenía su oficina privada y veo que se empieza a dejar la barba. Y viva con bastantes libros de temas de inteligencia artificial, de visión, de biología humana. Y empieza a poner pósters de Xbox en su oficina y no No se veía nada. Entonces, se se estaba volviendo loco. O sea, ¿qué está pasando? Fue un periodo superintenso, seis meses, y lo logró. Logró hacer estas redes neuronales. Y esto fue completamente un año, dos años antes de deep learning, de que Ilia hubiese sacado la primera red neuronal que le ganaba a todos los modelos. Él también lo logró con otros artefactos matemáticos, plus la red neuronal y modelos probabilísticos. Pudo, dado una imagen, primero encontrar un objeto, da otra imagen, ver cuando el objeto desaparece de la naquel y tercera imagen, ver cuando sale. Y una combinación de fusión de sensores, que es una fusión de sensores es cuando tienes bastantes sensores y tienes un programa de software que usa los datos de todos los sensores para llegar a una conclusión.

Multiángulo + básculas: fusión de sensores para confirmar compras/devoluciones

Entonces, logró su prototipo, funcionó. Yo tuve acceso al beta, solamente empleados, pusieron una minitiendita adentro de la oficina y tú podías ir, recogías tu jugo, te salías y automáticamente te cobraba. Gracias a esa tecnología, se tardó como un año completo. El desarrollo fue seis meses hasta que logró el prototipo hasta el año. Y al siguiente año, sale la primera red neuronal profunda con Ilia. Y ya si se tenía un otro tipo que funcionaba muy bien, ahora con esta red neuronal se consolidó porque funcionaba 30, 40% mejor que la otra tienda. Y ahorita ya, por lo menos aquí en Seattle, ya está ahí competencia. O sea, ya hay otros empresas que compraron su licencia en la tecnología o que saben que se puede hacer. Y ya cuando se sabe que se puede hacer y funciona, otras empresas lo van a querer hacer. Y está padre. ¿Cómo funciona? Básicamente, tiene muchos sensores en toda la tienda. Sabes cuando una persona entra, porque tiene que haber como una entrada. Normalmente, enseñas tu teléfono. Ya tengo la… Sé que estás adentro. Tengo Cámaras en todas partes no se ven, son cámaras en todas partes, no se ven.

Casos límite: dos clientes, caídas, traspasos y tiempos de cómputo

Son cámaras de 360. Estoy viendo a todos los anaqueles. Voy, hago segmentación y detección de objetos y voy detectando a David, va caminando. Cuando abro el anaquel, hace zoom a ver qué objeto es, detecto el objeto. Del otro lado, también en el refrigerador, puede haber otra cámara para tener dos cámaras confirmando el objeto que es. Puedo tener también un sensor para calcular el peso, para saber si hago trucos como que lo levanto y lo regreso. Entonces, sí puedo saber o lo agarro y lo meto, pensando que no me van a ver las cámaras. Seguramente, va a haber una tercera o cuarta cámara en otro ángulo que va a poder saber más el sensor, es irrefutable que agarré algo y después digo: No, yo no lo agarré, yo lo regresé. Entonces, ya saben quién soy yo, tienen mi identidad, saben qué objetos tengo. Si regreso el objeto, posiblemente van a tener un sensor, hacen la fusión de sensores, saben si regreso y se me olvida algo y me voy otra vez y agarro otro producto. Si dos personas se ponen al mismo tiempo y agarran productos que están pegados dos, hay otras cámaras que van a poder distinguir y los van a poder separar.

Si pasar algo increíble, como que me caigo al suelo y tiro el producto y otra persona agarra el producto, las cámaras lo van a poder hacer. Se va a tardar más en procesar, no va a ser inmediato, pero estoy seguro que te va a llegar tu cargo, tu cobro. Entonces, si haces el caso más simple, que nada más vas y recoges tu bebida y te sales, te llega en un minuto. Aquí está tu cargo, te voy a cobrar. Si haces algo más complejo, como que recojo tres o cuatro productos, me regreso, regreso un producto, escondo algo para ver que no me vea la cámara, etcétera, se va a tardar 20, 30 minutos y te va a decir: Oye, tuve que usar más cómputo, fusión de sensores, fusión de visión, detección de objetos, pero al final sé que lo traías, ¿no?

Alberto Cruz
¡guau! Este cañón, porque aparte, o sea, en Estados Unidos, digo, ya las cajas, hay una cajera humana por 10 terminales automatizadas. Lo que platicabas, nunca llegó a México. Se llamaba Amazon Go, ¿no? Se llamaba el…

David Uvalle
El Amazon Go.

Alberto Cruz
La cadena como de tienda. Aquí no sería mucho reto, porque los OXXOS, nada más, aunque tienen dos cajas, siempre tienen una abierta. Entonces, que llegara un sistema de esta forma… Pero es que ya no estamos hablando de futuro, estamos hablando de cosas que ya están implementadas, que ya están hechas. Y eso toca mucho el tema de los trabajos, ese es el siguiente tema.

Voz IA
Los dioses de la inteligencia artificial.

Empleo y sueldos: qué cambia con IA (2025–2026)

Alberto Cruz
Resulta que salió un informe de PricewaterhouseCoopers, donde se muestra que los salarios en industrias con alta exposición a inteligencia artificial están creciendo al doble de velocidad que en otras industrias. Además, los trabajadores en estos roles están desarrollando habilidades nuevas a un ritmo de 2. 5 veces más rápido. Bajamos el estudio, está en la página de PwC, o sea, está al público. Lo que sí hicimos fue un resumen Por ejemplo, esto es de México, ojo, está el de Estados Unidos. Bueno, es muy chistoso porque ponen de América solo está Canadá, Estados Unidos y México, ya lo demás, ya no llegó el estudio. De Europa está el de España, etcétera. Pero es en México. Resulta que igual que cuando llegó la electricidad, la inteligencia artificial no está eliminando empleos en masa, sino que está ayudando a crear nuevas formas de actividad económica, que es algo que ya habíamos platicado en otro capítulo. México, en particular, hubo un pico de 55 000 vacantes con inteligencia artificial en el 2023. Cayó en el 2024, pero porque en general el mercado laboral se debilitó, ya platicamos en un capítulo de por qué pasó eso. En México, información y comunicación son los sectores que más están demandando inteligencia artificial.

Vacantes que crecen y sectores con mayor exposición

Pasó de 2. 2% de vacantes a 3. 6, casi 4%. O sea, el salto estuvo, está cañón. Y eso permite ver qué empresas están jalando la ola. En México, escuchen esto que está en el estudio, son los legisladores, los legisladores y los directivos, quienes más crecieron en demanda, más del 600% de inteligencia artificial en cinco años. O sea, son quienes más están demandando este tipo de puestos. Ya vimos que hay algunos legisladores que leen la cosa, tal cosa, se les entrega ChatGPT, y si quieres, te puedo dar una mejor respuesta cuesta para que no cuando están en el último párrafo terrible. Ahora, y esto para platicar ya con David, en trabajos muy expuestos a inteligencia artificial en México, la exigencia de título bajó de 14% en 2021 a 12% en 2024. O sea, no manches, es un cambio tremendísimo en cuanto a lo que está captando la gente. Entonces, en Estados Unidos, un estudio de Stanford revela que los trabajadores jóvenes de entre 22 y 25 años en roles expuestos a inteligencia artificial han visto una caída del 13% en empleos en comparación con sus colegas mayores. Es que estamos a la inversa, David.

O sea, está totalmente el mundo al revés, porque se entiende que mientras allá está sucediendo algo en Estados Unidos respecto a la adopción y los trabajos, pues aquí vamos a algunos años atrás. Para los puestos en los que se está haciendo muchísimo tema de inteligencia artificial, la cuestión educativa sigue valiendo al 100% en Estados Unidos, ¿es correcto?

¿Baja la exigencia de título? Formación amplia vs. “solo herramientas”

David Uvalle
Habrá personas que digan que no. Yo soy de la opinión que sí. Si es bueno bajar la barra para que más personas entren al campo laboral. Y sin embargo, a veces los trabajos necesitan más experiencia, credenciales y estudios para poder hacerlo efectivamente. Si no, vas a a perjudicar equipos. Entonces, mi opinión es de seguir estudiando lo más que se pueda. Si sus papás o esa persona de alguna forma, tiene acceso a una universidad, siempre va a ser mejor tener, para mí, un título universitario que te exponga conocimientos a lo ancho para después irte a profundidad. Un ejemplo que a mí me pasó hace muchos años, Una persona que se cambió de carrera, pero tomó algunos cursos de programación, no estudió la carrera y muy, muy buena esa persona programando. Y sin embargo, cuando estudias una carrera de ciencias de la Computación o una maestría, aprendes de todo, desde sistemas operativos, redes, programación lógica, el reconocimiento de voz, etcétera. Te da un poquito una embarradita de todo para saber cómo están. Bueno, a esta persona le dieron tareas de programar, excelente. Todo el rato lo hizo superbien. Cuando se pusieron los problemas más ambiguos y necesitaba configurar un conjunto de servidores y establecer las políticas de red, no pudo.

Cuando había problemas con su programa que requerían saber de sistemas operativos, tampoco pudo. No porque la persona no sea superinteligente y no pueda aprender el tema, es porque a veces en el trabajo no tienes el chance, no tienes el privilegio de aprender mientras estás trabajando, no tienes el tiempo. Entonces, sí está muy bien tomar el cursillo rápido para mantenerte actualizado, pero no hay que engañarse y decir: Ey, este cursito de tres meses va a reemplazar una educación de cuatro o cinco años con maestría y doctorado. Hay una gran diferencia. Ahora, es un ejemplo extremo. Pero toda esta gente que trabaja en OpenAI, que se llegaron a meta, que le estuvieron pagando de 10, 20, 50, 100 millones de dólares, la mayoría tienen maestría o doctorado. Entonces, yo sí creo que sí es importante tener alguna credencial mínima de estudios avanzados. No es necesario para muchos proyectos, productos y servicios. Te puedes dar cuenta que hay muchos, por ejemplo, influencers que ni la prepa terminaron y le están yendo superbien. Y este mercado de cursos que hablamos en el capítulo pasado también es muy legítimo, porque, como te digo, para todo mundo, para todo roto hay un descocido, como le dicen.

Alberto Cruz
Sí, sí, sí, sí, sí,

David Uvalle
Simpre hay un nicho, hay una curva, hay gente que si le va a interesar y que justamente ese curso es perfecto para el nivel de educación o de conocimiento que esa persona requiere.

Alberto Cruz
Estás bien que hubieras dicho que para cada rotation hay un descocination, porque todo el mundo lo cachamos. Ahora, hermano, ¿tú crees que… A ver, esta pregunta es importante porque hemos visto los demográficos de la gente que nos escucha y la mayoría son papás, padres y madres de familia. ¿Tú crees que los jóvenes estén siendo más afectados por la inteligencia artificial en términos de oportunidades laborales? Obvio, tú lo estás viendo desde el mercado de Estados Unidos, ¿no? Pero, ¿cómo ves la cosa con toda la información que tienes tú como creador de inteligencia artificial?

Jóvenes, burbuja de “todo es IA” y riesgos reales

David Uvalle
Creo que ahorita sí puedo pensar que estamos en un poco de una burbuja, similar a lo que pasó en el 2000, la burbuja del dot com, donde cualquier empresa quería tener su página dot com, aunque no tuviese que ver nada con internet o la empresa ni existiera. Ahorita todo el mundo quiere hacer algo con inteligencia artificial, todo es IA. Las empresas tienen dos objetivos: generar ganancias, cortar costos. Entonces, es muy fácil pensar: Si puedo usar esta inteligencia artificial, puedo cortar 30 o 40 empleos. Pero lo que no se entiende es de que a lo mejor la inteligencia también requiere más trabajo, requiere afinar para que funcione muy bien a mi caso de uso. Y si no sé, si no tengo a la persona que me pueda ayudar a afinar, que no hay tantas personas, no me va a funcionar bien. Y el problema es que, digamos que, reduzco mi capital humano y había dos o tres personas que se sabían superbien todos los procesos de la empresa, y la IA con tiempo, empieza a fallar y empiezo a caer en modo de desastre, de desorganización, empiezan a fallar todos mis procesos. Entonces, se puede ver, puede pasar que esta empresa pida otra vez contratar a las personas que dejó ir.

Entonces, ahorita, por ejemplo, se está viendo con diseñadores, agencias de diseño recortaron o empresas que no se dedicaban completamente a diseño. Dicen: Yo lo puedo hacer y no requiero de un diseñador de tiempo completo. Entonces, yo voy a usar Midjourney, otra herramienta, y lo voy a hacer. Y de repente no le sale tan bien como lo que ellos quieren y tienen que contratar a un freelancer.El freelancer lo que hace es corregirlo. Entonces, ahorita, por ejemplo, hay un boom de trabajo de freelancing, de diseño, porque la gente no está satisfecha con los modelos que está generando inteligencia artificial.

Alberto Cruz
Es que le creen a la publicidad. Hace poco, aquí en México, se estuvo promocionando de forma muy fuerte una empresa, no se sabe bien qué tan existente o no es existente, pero te prometía no parar un servicio ilimitado de diseño. No parar hasta que tú estuvieras de acuerdo. Suena fabuloso, ¿no? O sea, con un comercial superbien hecho que llevó no horas, sino probablemente días de producción en animación, en efectos, etcétera. Y mucha gente contrataba ese servicio y en las letras chiquitas era: Sí, son servicios ilimitados, pero tienes en cola cuatro. Es decir, no te voy a atender el quinto hasta que no se entregue de forma final uno. Y la otra cosa, Cañón, que se quejaban era: Es un servicio de diseño. O sea, tú tienes que llegar a decirles puntualmente qué es lo que quieres. O sea, tú tienes que llegar con la idea de: A ver, quiero un diseño que va a ser así, o sea, para esto, con este fin, etcétera. No era un servicio de agencia creativa. Es decir, había muchos trucos en la compraventa de este servicio que lo acababa siendo más complicado para los incautos que pagaron o seis meses o un año, etcétera.

O sea, viene ese cambio tremendo. Y el tema del diseño en particular, creo que ahí sí, como comentas, sí ha habido un cambio radical. O sea, sí me tocó a mí conocer casos de empresarios que básicamente sí recortaron el 100% de sus áreas de diseño y contrataron a un recién egresado, que no siento que no estoy diciendo que no sepa, pero es un recién egresado, para hacer retoques o todo. Pero la experiencia de qué retocar, cómo pedirlo, etcétera, acaba siendo también todo un tema. Lo hemos hablado en otros capítulos, hermano, pero en realidad ahora vale mucho que sepas qué quieres, o sea, que seas experto en en pedir, en diseño, en video, en lente, en fotografía. Y no quiero sonar aquí de a viejito, pero no mames, ahora ya todo el mundo se siente diseñador en ChatGPT o en Grok, o sea, Y aún así tienes que saber qué pedir.

David Uvalle
Sí, completamente de acuerdo. Y estamos en una encrucijada ahorita con lo que estás diciendo de la educación, que me acordé. Pero me acuerdo este artículo que decía: Dos estudiantes hacen un ensayo y uno sale 9, y el otro sale 8. 5. El que sacó 9, lo hizo con inteligencia artificial. El que sacó 8. 5, lo hizo a mano. Pero el problema es este. Uno va a la universidad, uno hace la preparatoria y uno tiene que escribirlo sin ayuda, porque uno está aprendiendo a hacerlo. Es diferente cuando uno está en el ambiente académico, que uno está aprendiendo y no pasa nada, que cuando esté en el trabajo, que uno se puede ayudar de las herramientas. El problema es que ahora los estudiantes están optimizando para sacar que “están bien”, tratan de optimizar por la mejor calificación y se dan cuenta que pueden hacer todo el ensayo con una herramienta, pero ellos ya no están aprendiendo a hacer el ensayo, no están aprendiendo a escribir, no están aprendiendo a pedir. Entonces, es una encrucijada muy difícil en la que estamos, porque también quieres que las universidades, los centros educativos, rápidamente aprendan a usar estas herramientas y detectar cuando se están usando y decirles a los estudiantes: No, no, no.

Ensayo a mano con lápiz y sin ayuda de inteligencia artificial para que tú aprendas a hacerlo tres, cuatro veces, después en la quinta vez, ahora sí, te puedes ayudar tantito. Y eso no está pasando. Los estudiantes, las nuevas generaciones nativos de IA están usando la herramienta para todo. Ese es algo de riesgo que puede ser. Nos está haciendo un poquito menos hábiles.

Alberto Cruz
Sí, eso está tremendo. Vamos a regresar al tema de La Escuelita con David Uvalle.

Voz IA
La Escuelita con David Uvalle.

Redes neuronales que “ven”

Alberto Cruz
A ver, al principio del programa estamos hablando de las cámaras. Ya nos explicaste cómo identifica que toma la persona un producto en una anaquel, se la lleva, cómo es el proceso. Pero lo que quiero que nos platiques, David, es cómo funciona la inteligencia artificial que detecta gestos. O sea, ¿qué está analizando? O sea, ¿qué está viendo la inteligencia artificial cuando dice que ve un gesto?

David Uvalle
Es muy similar a… Bueno, lo que está viendo la cámara son píxeles. Eso es todo. Y ahora hay una red neuronal por atrás, que normalmente es una red Convolutional Neural Network, es como convolacional, que es un tipo de arquitectura que trata de imitar cómo funcionan los nervios de los ojos y entiende el patrón de un gesto. Ahora, ¿cómo sabes que es un gesto? A mí me gusta pensar en los datos de entrenamiento, ¿cómo la entrenarías? Si ya te ves este artefacto que te digo, esto es una reunión en el que te ayuda a reconocer caras y gestos, tomas varias fotos de personas sonriendo y tú vas y manualmente señalas la parte de la cara o cortas la foto y nada más enseña sonrisas. Adicionalmente, le puedes poner metadatos y decir: Sonrisa, sonrisa, varias, miles de sonrisas. Pones una donde esté neutral, 1000 fotos neutrales, y pones una donde esté triste. Entrenas esta red neuronal con ejemplos positivos, ejemplos negativos, y al final, la red no solamente puede categorizar binario, se puede hacer multi clase y te puede digamos, reconocer 10 diferentes gestos. Sorpresa, placer, tristeza, etcétera. Y lo que está reconociendo, básicamente, son muchos ejemplos del patrón, de cómo se ve una sonrisa, de cómo se ve una cara de tristeza, de cómo se ve una cara de sorpresa.

Alberto Cruz
Si tú entrenas a un modelo de inteligencia artificial o a una red o el proceso para identificar algún gesto y poder saber de qué ánimo está la gente, ¿no existe la posibilidad de muchos, cómo se llaman, falsos positivos, o sea, de mucho… Y lo pregunto porque en el área de marketing, que esa es la que yo soy especialista, siempre se ha hablado del neuromarketing, siempre se ha hablado de estos sistemas que van detectando tu retina, van detectando a cuál es el movimiento de los ojos. Me explico para la gente que nunca lo ha escuchado. Es cuando te pasa en un comercial en una pantalla de televisión, en tu computadora, en tu laptop. Se amplía la pantalla y sale un comercial y lo que va detectando o va grabando la cámara de alguna forma, es el movimiento de tus ojos para detectar qué parte de la pantalla fue la que viste más con base en en dónde se mostró el logo de la marca más tiempo. En fin, se eleva y se va llevando ahí a N potencia. Yo, la verdad, siempre me he mostrado un poco escéptico en ese tema, porque hay muchos distractores. Al final, si yo estoy en mi oficina, tengo la laptop abierta y pasa alguien atrás de mi escritorio mientras yo estoy sometido a una prueba de esto, a lo mejor alcé la vista y vi al cuate pasando y hasta lo saludé y etcétera.

Pero para regresar a este tema de los centros comerciales, tú haces este modelo de los gestos y tomando en cuenta que esto lo están haciendo para prevenir robos, para prevenir que el asaltante esté haciendo una mezcla de gestos, ¿qué más, qué otras cosas se toman en cuenta para hacer un entrenamiento de esta forma, aparte del gesto?

De píxeles a patrones: CNN y entrenamiento (positivos/negativos)

David Uvalle
Nada más para reducir el problema en general de entrenar estas redes visuales, la forma en la que se entrenan es que normalmente usas 80% de los datos para entrenar y dejas 20% de los datos nada más para probar. Significa que voy a entrenarla, si tú me das una base de datos de 10 000 fotos, yo voy a usar 8000 nada más para entrenar. Y ya cuando crea que mi red está funcionando decentemente, voy a usar los otros 2000, que me sobran, para probar qué tan bien está el performance, qué tan bien está el rendimiento. Si veo que mi rendimiento, escojo una métrica, y si veo que mi precisión no es suficiente, significa que tengo que cambiar la arquitectura, tengo que cambiar la complejidad del modelo o a lo mejor necesito más datos de entrenamiento. Entonces, yo estoy completamente de acuerdo contigo en el escepticismo. No hay que confiar así ciegamente en el producto, pero lo que sí pasa es que mientras más imágenes, mientras más datos de entrenamiento va recolectando, incrementas el poder del modelo. Entonces, un producto que no funcione tan bien en estos primeros seis meses, a lo mejor en los siguientes seis meses del año va a empezar a funcionar decentemente y en el siguiente año va a ser increíblemente.

De objetos a eventos: comprender “la historia” en video

Ahora, yo, si diseñara para detectar robo, pues igual no, nada más tratas de no usar nada más la red, tratas de usar los gestos, tratas de usar fusión de sensores, para saber si la persona nada más está dando vueltas, tratas de hacer el reconocimiento de cara y tratar de checar la cara contra bases de datos de gente que ya está identificada antes. Y tratas también de tomar un experto. Si tienes, por ejemplo, un guardia de seguridad que tiene ya intuición de quién se va a robar algo, después de que pasa un incidente, lo citas y le dices: ¿Cómo supiste? ¿Qué te dio?. Y escuchas y tratas de cambiar tu modelo o tratas de pensar en otro sistema que te pueda ayudar a reducir este tipo de incidentes.

Alberto Cruz
No, man, acabas de dar todo un modelo de desarrollo y de negocio en un minuto y medio, mano, de cómo hacer y cómo echar a andar esto. Mientras hablabas, me acordaba. Yo tengo unas cámaras de vigilancia en mi casa, en mi departamento. Por mucha razón mi perro está grande, o sea, mi perro, aunque es pequeño de tamaño, es grande de edad. Y entonces, por ejemplo, esas cámaras es un servicio que se llama WYZE, W-Y-Z-E. La verdad es que era un servicio viejo, es una empresa vieja, no es una empresa tan nueva. Pero tenía la gracia de que las… Bueno, más bien, de hecho tiene que las cámaras de vigilancia son de pila. O sea, no necesitas conectar un cable de internet a la cámara o que la cámara vaya a la corriente eléctrica. No, y les dura bastante la pila, la verdad. Entonces, tú puedes ver imágenes de esas cámaras en tu teléfono, va detectando el movimiento. Hace un par de años, empezaron con bombo y platillo el tema de que ya podían detectar personas y objetos. O sea, persona entró a cuarto uno, ya te llegaba la alerta. O mascota camina por sala, ¿okey?

Y te pedían: Oye, ¿sabes qué? Haznos un… O sea, de forma muy amable, la verdad. Ayúdanos a mejorar nuestro sistema y dinos qué mascota. O sea, esa mascota es un perro o esa mascota es un gato, o cómo se llama el perro o cómo se llama el gato. Yo, la verdad, no participé en el programa porque dije: No, no me voy a poner a darles mis nombres, mano. Ya sabes, uno que es mexicano, totonaca, paranoico. Pero en realidad se vuelve útil, porque los mensajes que empiezas a llegar a tu celular es: Pawis o Paulina está en recámara uno, Paulina salió por la puerta y pasó el Thor. Es decir, se transforma la comunicación dando esa información. Y aquí el punto es que yo siempre he creído que las webcams o cámaras de vigilancia o las que ponen en la puerta, etcétera, son un segmento de mercado así ninguneado, como que no son tan fancy y tan protagonistas en la película, cuando en realidad estamos hablando de unas cosas que no sabes cómo, pero tú lo dijiste hace rato: Oye, no detectan un gesto, detectan un pixel. Ahora, el desarrollo que tienen te pueden permitir: Eso es una lata, esa es Paulina, esa es Thor.

Eso es tremendo. También es un cambio en las redes y en la forma en la que está el desarrollo hoy informático, David?

Productividad real: IA sí, pero con criterio

David Uvalle
Sí, sin duda alguna. Estamos avanzando de una forma que vamos a llegar ya a niveles de película, como Minority Report, que veían a la persona, la detectaban y trataban de predecir qué va a ser y si va a ser un criminal o una persona buena. Entonces, poco a poco, obviamente, no lo estamos haciendo con precisión, estamos cometiendo varios errores, pero para allá vamos, para tratar mejores modelos predictivos.

Alberto Cruz
Porque hay cámaras que detectan el calor del cuerpo, o sea, el gesto más la temperatura corporal, más te metiste una cosa extraño a la mano, a la chamarra, Pues todo eso va avanzando tremenda. O sea, es la suma de varias cosas.

David Uvalle
Sí, son varios, como se le dice mucho en Estados Unidos, se usa la escopeta. O sea, significa tiro todo. O sea, para tratar de resolver un problema, a veces tienes que usar el método escopeta, que usas sensores, usas visión, usas texto, usas datos históricos, lo que te funcione. Y a veces vamos a regresar, a veces es super increíble, como con pura intuición humana, supera a estos sistemas. Por eso todavía vas a requerir expertos con esta intuición que te ayude, expertos de dominio, para poder navegar y mejorar estos sistemas.

Alberto Cruz
¡guau! Está tremendo. Está tremendo porque entender cómo se entrena una inteligencia artificial te permite saber cómo usarla. Por ejemplo, Y ahorita, mientras tú platicabas esto, yo también pensaba: Oye, ¿eso aplica para nosotros como usuarios finales de inteligencia artificial?. Ejemplo: estoy ocupando Grok o ChatGPT o Gemini para pedirle… No, no hablemos de algo informático, vamos a pedir algo… Vamos a pensar, un evento corporativo. O sea, tengo que crear una campaña para un evento corporativo. Según lo que hemos platicado, lo que tenemos que hacer es darle un papel a a nuestro agente. O sea, decirle: Eres un creativo de una agencia de publicidad especializado en eventos muy pro de empresa. Me empieza a dar respuestas, pero yo también le tengo que decir como usuario final: Oye, esto no es. O sea, lo que estoy intentando hacer es escalar la dimensión del entrenamiento que tú estás platicando para hacer un sistema a lo que nosotros tenemos que hacer como usuarios cuando ocupando un agente y no solo decir: Sí, está bien, ya me dijo la primera y ya es un yes men. Tienes que irlo también, darnos de sus pinches nalgadas, ¿no?

Por qué “la IA lo hace” no reemplaza al experto

David Uvalle
Sí, hay que afinarlo para que logre el objetivo. Y también tú tienes que saber, tú tienes que tener suficiente experiencia e información para decirle: Estás mal. Y de aquí en adelante: Ya no quiero que sigues en esa línea de pensamiento. Y te voy a explicar por qué. Y así entrenas a tu agente a que te responda de una forma que tú quieras. Pero de lo más básico, antes de que le digas: Eres un experto en marketing, también le puedes decir: Tu tono va a ser profesional. No me vas a hacer chistes, quiero precisión, quiero profesionalismo. O sea, esta es tu actitud conmigo, tiene que ser así. Y ahora te voy a decir: Todo esto es lo que sabes. Y ahora dime: ¿Sabes de estos libros que son básicos de mercadotecnia? ¿Ah no? Pues búscalos. Ahora te voy a dar herramientas. Hay estas herramientas, estos servicios web, que puedes bajar el documento y quiero que lo analices, que hagas un resumen y yo voy a ser tu maestro y te voy a decir si estás entendiéndolo bien. Entonces, ya agarraste a tu agente, le dijiste personalidad, le diji ste un objetivo ¿Qué va a hacer? Te diste cuenta básicamente de sus huecos de conocimiento y estás tratando de cubrir esos huecos.

Creo que unas versiones nuevas de GPT-4, GPT-5, les puedes meter documentos PDF. Entonces, ya se lo precargas como esa información que tienes que saber. O hay tres escuelas de marketing. A mí nada más me importa una. A mí me importa la guerrilla. Quiero que seas experto en guerrilla. Y todo en el contexto que te voy a preguntar tiene que ser guerrilla. A mí no me trates de decir ideas que funcionó en los 40, en los 50 en Estados Unidos. Tropicalízalo y estamos en el 2025, ya para el 2026. Entonces, Entonces, ya con toda esa información, tu agente se va a moldar a ti. Y aún así, seguramente lo vas a tener que corregir y lo vas a tener que guiar hasta un nivel en donde tú te sientas satisfecho. Y es cuando viene: Voy a probar la idea de esta el agente contra mis ideas, el experto. Y ahí tú tienes que hacer tu: Esta vez voy a usar el agente, esta vez voy a usar el experto. Este es el agente, el experto. Empiezas a llenar tu tabla hasta que llegas a un nivel de que: Okey, ya confío en el agente. Ahora sí, nada más voy a usar el agente para este tipo específico de problemas.

Alberto Cruz
¡guau! No manches. Ahí está otra clase de cómo usar inteligencia artificial terrenal. Para ti es totalmente obvio, así de: Mira, no mames. Es como decir: Primero empiezas a escribir en Word y luego lo copias a un Excel para hacer una tabla. Sí, pero para muchísima gente lo que acabas de decir es como iluminado, ¿sabes? O sea, es como utilizarlo, porque hay mucha gente que solo la está corriendo y con el cambio que hubo de GPT-4 a GPT-5, muchos tropezaron en el uso. Me tocó gente de aquí de la agencia, que me decía que ya no era tan cálida como antes la inteligencia artificial, que ya no les hablaba bonito. Pero, cabrón, si no es una persona, amigo, o sea, es un sistema. Y ahorita lo que dijiste es clave, o sea, el tema de tú le puedes dar el tono. Tú le dices qué quieres. Sí, Y nos regresa al punto de necesitas una preparación académica para saber pedir qué quieres, si no te quedas frito. Te quedas a expensas de lo que te responda y te vas a decir que sí. No, hombre, tremendo. Tremendo, hermano. O sea, 10 de 10, 5 estrellas de tus mejores recomendaciones de uso.

David Uvalle
Igualmente, 5 estrellas, siempre hablar contigo. Me sacas los temas, los temas fluyen. Tú sabes cómo fluirlos.

Alberto Cruz
Nos escuchamos en el siguiente capítulo de los dioses de la inteligencia artificial. Traemos arrastrando ahí un temita de las VPN. Ya no tanto en el uso de un proceso de empresa y platico, sino para un poco más el entendimiento personal, o sea, en realidad, ¿para qué sirve más allá de que puedas ver canales de otros países, o sea, ¿por qué lo usarías? Hermano, muchas gracias ¿Por qué? ¿Por qué lo usarías? Hermano, muchas gracias. Saludos a Seattle.

David Uvalle
Muchas gracias. Saludos a México.

Alberto Cruz
La escuchamos en el siguiente capítulo de los dioses de la inteligencia artificial.

Voz IA
Aquí termina esta sesión, pero la máquina sigue observando. Sigue observando. Esto fue los dioses de la inteligencia artificial. Cerramos por ahora, pero ya nada es igual. Pero ya nada es igual.

[ ← Volver a listado de episodios ]