Introducción
Los wearables ya no solo registran pasos: sienten, interpretan y responden.
En este capítulo de Los Dioses de la IA, Alberto y David exploran cómo tu cuerpo se vuelve la interfaz entre tú y la inteligencia artificial:
- De los relojes a los lentes: cómo los sensores de movimiento, acelerómetros y PPG ya infieren estrés o emociones.
- Ray-Ban Meta Display: lentes que integran cámara, proyección en cristal y pulsera gestual que traduce microseñales musculares.
- Privacidad y ética: por qué la UE clasifica los sistemas biométricos como de alto riesgo y exige consentimiento explícito.
- De Google Glass a Meta AI: 75 años de evolución desde los primeros experimentos de realidad aumentada hasta los modelos multimodales actuales.
- El futuro próximo: brazaletes neuronales, modelos que leen intención antes del movimiento y la frontera del ubiquitous computing.
Episodio 14
Voz IA
Estás a punto de cruzar un umbral donde la tecnología deja de ser herramienta y se convierte en espejo. Bienvenido a los dioses de la inteligencia artificial. La inteligencia artificial. Por qué confiamos más en una máquina que en nosotros mismos? Tal vez porque la máquina no miente. La máquina no miente. Aquí no hay respuestas simples. Solo preguntas demasiado humanas. Una batalla entre dos cerebros. El biológico y el sintético. Sintético.
Alberto Cruz
Hoy, en los dioses de la inteligencia artificial, tu cuerpo ya es la interfaz. Tu reloj sabe cuándo duermes mal, cuándo te estresas y cuándo mientes. Con solo ver tu pulso y tus nuevos lentes de meta, no solo ven lo que tú ves, sino cómo lo ves. Pasamos del gadget que te cuida al sistema que te observa. Del dato de salud, al dato que entrena la inteligencia artificial. Este episodio es para cuando creíste que el uso compartido de datos era solo una casilla que aceptaba sin leer. Bienvenidos al punto donde la comodidad y la vigilancia se miran de frente. Hoy, relojes que sienten emociones, lentes que interpretan gestos y pues toda la información que nos va a compartir David de cómo funciona cuando la inteligencia artificial ya vive en nuestro cuerpo.
Voz IA
Los dioses de la inteligencia artificial.
Alberto Cruz
Bienvenidos, bienvenidos a los dioses de la inteligencia Artificial. Mi nombre es Alberto Cruz, como siempre acompañado por mi hermano David Uvalle, que es importante recordarles, es de las principales mentes creativas que hacen que la inteligencia artificial siga avanzando. De hecho, David, hace una semana te invitaron a una cosa no? De la La casa de la gente que hace inteligencia artificial.
David Uvalle
Hola, hermano. Cómo estás? Muchísimas gracias por tus palabras. Sí. Hace una semana estaba en la casa de Inteligencia Artificial en Seattle. Me invitaron como residente experto y básicamente se trata de ayudar a todos los emprendedores que quieren hacer negocios con inteligencia artificial en el área en la región.
Alberto Cruz
Ok, pero cómo es? O sea, es como una expo, es como. O sea, quién está ahí? Quién? O sea, vas a mentorear? Cómo? Cómo funciona?
David Uvalle
Como todo lo que dijiste. Igualito a como en verdad funciona. Es de que es un. Es un incubadora, eh. Organizada por el Instituto de Allen de Paul Allen. Te acuerdas de Paul Allen, uno de los cofundadores de Microsoft? Parte de su legado fue dejar dinero para que se usara para crear nuevas empresas de tecnología. Una de la parte de la incubadora, que es básicamente un fondo de inversión de riesgo, está usando sus fondos para ayudar fondos semilla a muchas compañías aquí en la región. Entonces, cómo funciona? Es de que el gobierno de Seattle está trabajando conjuntamente con la incubadora de Paul Allen y rentan o no sé si compraron este edificio de dos pisos y es básicamente un lugar de trabajo cooperativo en donde diferentes compañías tienen su espacio pequeño para trabajar y ellos no pagan renta, no?
Alberto Cruz
Órale, qué primermundista, David. O sea, suena así como colaborativo al 100. Está muy padre. Pues muchas felicidades porque tú formas parte también ya de ese punto y de hecho hoy vamos a hablar de los siguientes temas.
Voz IA
Los dioses de la inteligencia artificial.
Introducción: el cuerpo como interfaz
Alberto Cruz
Oye hermano, tú utilizas reloj inteligente o ni. O sea, de de análogo?
David Uvalle
No, no tengo reloj.
Alberto Cruz
Cómo?
David Uvalle
tenía reloj análogo. Se le acabó la pila y ya se me ha ido. Se. Se me olvidó ir a poner. Qué buen recuerdo. Recordatorio. Ya voy a ir a ponerle pilas a mis relojes análogos.
Alberto Cruz
Oye, está cañón porque yo también he llegado a trabajar en grandes lapsos de mi vida sin reloj y ha sido maravilloso. O sea, si te quitas la cosa,
David Uvalle
sabes cual. Si tengo y me funciona mucho. Ahora que estoy empezando a correr un poquito más el Garmin comercial, claro, uno que me dice mi fase y la velocidad y la distancia, etcétera No, para eso sí me gusta,
Alberto Cruz
pero es un smartwatch, o sea, es un reloj inteligente.
David Uvalle
Si, si, pero no es como que me lo pongo todo el día, me lo pongo más que nada cuando voy a hacer ejercicio para para llevar mis métricas.
De los relojes inteligentes al reconocimiento emocional
Alberto Cruz
Okay, bueno, pues resulta que en este tema de los smartwatch chéquense un estudio publicado o usó sensores de movimiento de smartwatch o el acelerómetro y el giroscopio. El giroscopio, que es lo que hace que sepa que es norte, sur, este, oeste No es cuando cuando mueves el el device para inferir estados, estados emocionales como feliz o triste y lograron precisiones medianas. Y hay trabajos recientes en los que ven ese foquito verde que parpadea en el reloj, que es el famoso PPG o PPG, que es lo que lo que te va midiendo el en la muñeca. Pues eso ya mide cuánto estrés hay. De hecho el que yo utilizo, el de Samsung, pues esta me manda mis recordatorios cuando ya estoy muy estresado me manda mensajes de que me tranquilice, pero esto es importante porque eh, al final es como un reloj puede inferir que uno está estresado. Evidentemente un reloj inteligente, o sea, cómo funciona eso hermano?
Cómo el PPG y los sensores infieren estrés y estados de ánimo.
David Uvalle
Son puros modelos de inteligencia artificial. Acuérdate que mientras recopilas más datos, estos modelos tienen más información. Puede haber algunas partes que sean preentrenadas, pueden haber unas partes que el modelo entrene
Alberto Cruz
ok
David Uvalle
después de que lo usas y básicamente se trata de inferir. Hay también otros modelos matemáticos. No necesitas modelos tan complicados para algunos. Algunos de estos factores no. Entonces es una mezcla de modelos estadísticos normales, modelos matemáticos con forma cerrada, con algunos procesos ya pre calibrados y ya modelos muy avanzados de que usan redes neuronales.
Alberto Cruz
Ahora el tema es que esto se está regulando. O sea, esto de lo que estás hablando. Por ejemplo, la Unión Europea está regulando muy fuerte el tema de todos los sistemas de inteligencia artificial que usan datos biométricos para reconocimiento emocional. Los están clasificando como alto riesgo o directamente prohibidos en ciertos contextos. Eso quiere decir que que si un reloj monitorea emociones ya entra en una zona donde se requiere consentimiento explícito. Auditorías y transparencia pues de las empresas que están proveyendo este Este este, este, este reloj. Ahora, en realidad el punto del que nos vamos a meter ahorita es en el siguiente paso, lo que ha sido todo un un éxito. Yo me traje de una vez los míos para que ahorita a la gente que nos está escuchando y nos esté viendo en video pues son mis lentes de meta que mira
David Uvalle
wow
Alberto Cruz
llenos de dedos no?
Pero eh, pues el el escándalo no? El todo el tema que salió estos son los viejitos, estos son son los de la cámara, pero hay unos modelos que el que acaba de salir que trae una una pulsera. Ahora esa pulsera lo que permite hacer pues es a través de gestos, o sea mover los dedos, etcétera etcétera. Eh? Contestar, responder, mover. Porque los nuevos modelos que no es este que traigo en la pantalla, perdón, en el lente derecho, refleja una una como. Como una pantalla. No. Que no, No se ve hacia afuera. Lo ve únicamente el el usuario de los lentes y en esa pantalla pues aparecen mensajes de bueno, mensajes de algún sistema de mensajería de WhatsApp, de messenger o de donde lo tengan y también pues aparecen direcciones, rutas, etcétera. Ahora ya tenemos el reloj, ya tenemos los lentes, ya tenemos el anillo inteligente. Todo parece diseñado para ayudarnos a medir la salud, traducir idiomas, etcétera Pero en realidad el tema es qué está viendo un lente, cómo funciona el tema de la de que un lente sepa qué estás viendo? David
Los lentes de Meta: lo que ven, lo que aprenden
David Uvalle
Excelente pregunta. Los lentes traen una pequeña cámara y ahora un proyector. En el caso de tu versión, trae una cámara y está viendo lo que tú estás viendo, no? Entonces platicamos anteriormente de modelos multimodales que pueden entender lenguajes, imágenes, video y audio al mismo tiempo Y dado a esa representación de conocimiento pueden tomar diferentes acciones. Entonces, esto no es una nueva versión de los lentes de meta. Lo que hacen es de que tienen un pequeño proyector y la y la cámara y dispara luz a tu a tu lente y el lente la rebota a tu ojo. Entonces está usando básicamente lo que es en los espejos. No rebote de luz. Entonces tú puedes ver una pequeña pantalla de lo de lo que te está diciendo el sistema que hagas. Y ahora al mismo tiempo, la cámara está viendo en frente y está corriendo un modelo multimodal. El modelo puede entender las imágenes, puede entender los objetos, puede entender en dónde estás. También porque tienes información de GPS y puede tener entender el contexto. Entonces, el modelo, sin que le digas nada, está entendiendo. Si estás en una, por ejemplo, en una tienda de café, no estás ordenando un café. El modelo está entendiendo. Está viendo que te estás enfocando en la taza de café y te podría sugerir cosas de que. Oye. Te gustaría agregarle más vainilla? Tu café o este café? Parece de este tipo. A lo mejor te gustaría probar este otro tipo de café, etcétera Ahora tu le puedes preguntar también. No le dices Oye meta, que estoy estoy viendo una flor. Qué tipo de flor es esta? E inmediatamente toma la la imagen hace el problema. Resuelve la tarea de segmentación de que básicamente quita el fondo y quita todo lo que sea ruido y nada más. Deja la la imagen de la flor y manda a buscar la flor en una base de datos, encontrar la flor más cercana y normalmente va a encontrar que flores y te va a decir Ah, qué bueno que me preguntaste, esta es una flor X y crece en estos lugares y quieres más información? Te puedo decir. Entonces el modelo está entendiendo el lenguaje, tu lenguaje, cuando le hablas, las imágenes, el vídeo y audio.
Alberto Cruz
No ahora. O sea, eso quiere decir que. A ver, espera. Porque algo que nos has dicho en los otros programas es. O sea que tienes que entrenar a los modelos de inteligencia artificial. Tú ahorita lo explicaste todo un proceso, pero en realidad pasa en una, en una fracción de segundo. O sea, tú le preguntas a los lentes te qué tengo frente a mí? No, este agarra fue responde eso ya se tardó a lo mejor un par de segundos en conectarse. Pero aquí entra el otro, el otro juguete, David. O sea, el tema del brazalete este, el Neural Band que se llama, que, que, que básicamente lo que convierte son micro señales musculares en gestos. O sea, es loquísimo porque entiendo que una de las grandes cosas del de la robótica, de la inteligencia artificial entonces es la es igualar la locomoción, no? O sea, el movimiento de dedos, manos, etcétera Entonces, o sea, estamos hablando ya Tremendo, porque asumo aquí. No, no, no tengo la información que él meta los datos con los que tú estás haciendo, los gestos y todo su rollo. A su vez, estás ayudando a entrenar, eh? Los futuros brazaletes no? O sea, el el futuro del uso de esos brazaletes. Entonces realmente estamos usando inteligencia artificial, pero a la vez entrenando inteligencia artificial con nuestro cuerpo?
David Uvalle
Fíjate que no sé por qué no leí los términos de uso, pero muchas compañías están tratando de no usar esos datos para entrenar porque son muy, muy personales, como dijiste. Ok, vamos. Regresamos a la conversación que estabas diciendo en la Unión Europea, no? Si tú tienes un password es muy fácil cambiarlo. Si tienes un dibujito para abrir tu celular es que puedes hacer dibujos.
Alberto Cruz
Si, si un patrón
David Uvalle
lo puedes cambiar, pero si tienes tus tus huellas dactilares o tienes el iris de tu de tu ojo, eso no lo puedes cambiar, no? Entonces si alguien se lo roba Y tienen tus datos biométricos. Ya no puedes hacer nada. Entonces, como dijiste, es información súper mega personal y confidencial. Entonces yo no me gustaría pensar que en el. En los términos de uso y licenciamiento de información no estarían recolectando esos datos? No.
Alberto Cruz
Bueno, de hecho sí. En el modelo que yo tengo todavía tenías la opción de deshabilitar una un cierto envío de datos en la nueva actualización de firmware de meta Inteligencia Artificial ya hay unos que tienes que mandar por default, papá, tienes que mandarlos. Claro, se justifican con el tema de pues si no me los mandas, entonces cómo te respondo? Pero digamos que hemos visto esta película varias veces, no? O sea, este, este, este tema de de la compañía de Mark Zuckerberg. Ahora tú te comprarías una cosa así, David? Lo usarías o lo usarías diario?
David Uvalle
Creo que me esperaría porque están muy caros. Para empezar. Creo que son 800 $. 800 $? Sí, no creo que lo use diario, pero es básicamente para el caso de uso más importante. Yo creo que para la mayoría de la gente es de que grabar tus videos desde el punto de vista personal, no. O sea, muchas veces ves cosas padres en la calle o o vas a algún lugar y visitas y quieres grabar y a lo mejor no te llama tanto la atención sacar tu celular y grabar, pero la barra estaría baja de que a esto se parece un atardecer bonito, déjame grabo no? Y mando lo pongo en Instagram o lo guardo para mi colección? Entonces baja la barra.
Alberto Cruz
Y bueno, ahí es importante decirte que por ejemplo los que estos que tengo aquí en la mano, o sea hacen lo que acabas de decir, o sea, este foto, este si lo conectas a Instagram puedes transmitir en vivo real. Ya la vida pasa esto de los que estamos hablando de la pulsera y todo este rollo, pues la ventaja es que traen. Bueno, pues no es que una computadora, pero una interacción visual distinta. Entonces yo no me imagino, por ejemplo estos que me me lo regalaron, mi esposa me lo regaló jajaja. Este yo yo quería en un viaje a
David Uvalle
Saludos a Paws
Alberto Cruz
en en un viaje a Estados Unidos Comprármelos pero con Cómo se llama este? O sea ya con el anteojo de que que necesito por mi edad no es pero porque así serían útiles, sabes? O sea. Es decir, ya no solo serían unas gafas de sol, sino sería algo que yo traería en un lugar techado.
David Uvalle
Sí,
Dilemas de privacidad y riesgo de grabar a terceros.
Alberto Cruz
no. O sea, porque si no traen eso en un lugar techado, pues está así como de como de loco, no? A menos que tengas vista 20 20. Pero. Pero bueno, ahora, hermano, este punto de los de los lentes y la recolección de datos y cómo funciona la eh? El tema es que lo están llevando ya algunas empresas, los wearables, o sea, el tema, eh? Cómo lo están? Cómo lo están llevando? De hecho, en Amazon le encontramos una nota en la que se experimentaba con algunas pulseras como inteligentes, como básicamente las que salieron hace 1 trillón de años. Ya ni me acuerdo cómo se llamaban las Fitbit y todo este rollo, pero lo hacen para medir eficiencia, pausas, posturas. De hecho, patentaron algunos de estos sistemas hace año y medio, hace un par de años. Por otra parte, y hay otra compañía que se llama Humanize, que de hecho la vi en el último viaje en vallas y todo este rollo. Ahí en Nueva York ofrecen software que analiza tono de voz, ritmo y movimiento corporal para optimizar el rendimiento en oficina. Entonces vas teniendo un dashboard con cosas. Aquí la pregunta sería, por ejemplo, con el tema de los lentes tú decías oye, ves un atardecer y le quisieras tomar una foto? El tema que se está quejando mucho es lo que está en el ojo del radar es que puedes tomarle una foto a alguien sin que se dé cuenta. O sea, que esté pasando ahí. Este, este Juan, Juan mecánico, este al frente, al ocaso y. Y toma. Bueno, igual lo está haciendo con el celular, solamente que ahorita la atención está está puesto en ello. Eh? Esta misma tecnología podría utilizarse para vigilar empleados, no? Hermano. O sea, eh, este tipo de discreción, el tema de el proceso que me dijiste ahorita de inteligencia artificial, de tu preguntas y entonces va consulta, separa las flores y te dice esta flor es tal. Podrías estar viendo a David platicando ahí cerca del refri a punto de agarrar un refresco y pasa alguien de recursos humanos. No sé, estoy estoy este evidentemente inventando. No puedo tener una base de datos de la gente que está en mi empresa para que a través de un wearable como un lente pueda reconocerte.
David Uvalle
Sí, ya, ya estás escribiendo un episodio de Black Mirror o algo así, pero pues sí, podrías poner si quieres poner una cámara en la oficina y va a estar reconociendo a todos y decirte si se pararon al baño o no. No. Y ahí estás, entrando, Sea en términos de que hay que es que es legal y que no es legal hacer en un espacio de trabajo. Y yo pensaría que la gente, por lo menos en diferentes países, dirían no, ese no es el tipo de de de empresa que me gustaría trabajar.
Alberto Cruz
Pero te acuerdas de los Google Glasses? Recordemos que todo esto de los lentes viene. Eso es una reencarnación de unos lentes que había hecho Google. Te acuerdas de hace, no sé, a lo mejor 15 años o 20 años.
David Uvalle
Puedes hablar de realidad virtual y de realidad aumentada desde 1950.
Alberto Cruz
Ok.
Historia y legado: de Google Glass a Ray-Ban Display
David Uvalle
Y la realidad todo esto viene para usarse. Creo que la NASA los usaba en los sesentas para básicamente ponerte un headset y ver objetos en 3D. No. Sí, Vámonos todavía. Quién es el abuelito de los Google Glasses. El Nintendo Sega sacó su realidad virtual en el 92 93 y Nintendo en el 95 sacó el Virtual Boy. No? Ahí ya estás viendo un poquito de realidad virtual, de ponerte un headset y creo que Google llegó un poco tarde. En 2015 o 2014, porque en el 2010, chamaquito 17 años, Lucky Palmer sacó el primer prototipo de Oculus Rift y el Oculus. Lo que lo que es padre es de que te da realidad virtual y aparte lo apagas y te da la realidad aumentada. O sea, si tienes un armatoste en los ojos pero puedes ver a través de ellos y te puede dar, te puede pintar en la pantalla, te dibuja o te pone iconos. Entonces Google llega 2015. No era el tiempo correcto para esta tecnología 2014 2015 no pegó, pero años después pegó fuerte el meta Oculus No.
Alberto Cruz
Bueno, ahora. Ahora, de lo que cuentas. O sea, justamente el Oculus es el abuelito de los lentes de meta. Los. Los del metaverso. Te acuerdas? La meta, la meta jalada que se inventaron, que no cuajó. Pero es verdad, Fíjate. Ya no, ya no recordaba el Oculus ni los que dijiste hacia atrás. O sea, está loco porque uno pensaría que es algo muy nuevo. Sin embargo, estamos viendo la conclusión de muchas cosas. Yo te quería hacer una pausa porque Google recuerdo que dejó de hacer estos lentes, pero porque liberó el software. O sea, vaya, estaba documentado, tú podías descargar el software de alguna u otra forma te hacías del equipo que requerías para tener estos lentes inteligentes y la gente empezó a hacer desarrollos súper locos, o sea, unos en los que Y tú venías de cuenta, tú y yo veníamos en la misma calle. No, tú venías de frente hacia mí y me salía el lente, Detectaba tu cara, me decía quién eras y cuál había sido la última interacción. O sea, vaya, no la última iteración, sino más bien si habíamos llamado, habíamos tenido algún mensaje antes, etcétera. Pues estaba locochón no? O sea, si si si si. No mal recuerdo Google dijo No sabes qué? Esto está muy pinche punk este. Aquí les dejo todas las cosas y ahí nos vidrios. Pero ahora resulta que Meta es quien está tomando todo ese poder.
David Uvalle
Si Google tiene eso, no? Que tiene su ética. Pero por ahí por el 2018 o 19 en China salió esta compañía Xreal y ya te hace te hacía los lentes, hace la proyección de pantalla y también, o sea, hace la proyección para que tengas un entorno de realidad virtual completo y aparte lo puedes medio apagar y tienes tu realidad aumentada. Entonces dependiendo del país, dependiendo de la pedrada. En China desde hace muchos años esto ya es súper estándar, que la única diferencia es de que en China tenías que conectar. Bueno los los lentes están padres no pesan tanto y tienen que estar conectados a tu teléfono porque el teléfono es la fuente de poder, de poder y de cómputo. Ahora lo innovador de estos meta es de que el ente es la computadora. No, ya no tienes que traer nada aparte. Bueno, no sé cómo esté la batería, pero pues sí, sí, se me hace mucha innovación, no? Y básicamente todo lo que han aprendido desde desde Oculus, el prototipo este, te digo, sale en el 2010. No recuerdo cuando Meta adquirió Facebook, adquirió Oculus, pero estamos usando 15 años de tecnologías que se han estado desarrollando y si te vas más hacia atrás, pues los prototipos desde los cincuentas hasta ahorita estamos viendo ya 75 años de realidad virtual y realidad aumentada y estamos empezando a gozar los beneficios ahora, todavía ya llegamos a que sea consumo público, no a 800 $. Es demasia do caro, no? Como también
Alberto Cruz
Bovia se compró los metalentes. Eh? Se los compró.
David Uvalle
Cuando eres una celebridad, como Bovia. No te cuesta nada. Pues. Por qué no?
Alberto Cruz
Sí, Sí, sí, sí. Oye. Pero. Pero. Entonces. Sí. Sí. Están en un mercado. A ver si están en un mercado pudiente. No. O sea. Y evidentemente, creo que faltarían algunas generaciones más para que, eh, vaya bajando. Los que yo tengo son pesados. O sea, vaya a ver. No, no, eh. No te molestan? Pero yo creo que después de unas dos o tres horas y ya, ya dices bueno, ya me los voy a me los voy a quitar eh? Pero bueno, a ver entonces eh? Aquí el punto es que los primeros reviews de estos lentes, estos Ray-Ban de de Ray-Ban Display se llaman, mezclan un poco entre asombro y miedo. O sea, se ha escrito, por ejemplo, que es el wearable más útil y más peligroso que meta hecho por primera vez. Pues ves el asistente y él te ve de vuelta, porque reitero, o sea, tú le puedes preguntar qué panaderías están cerca? Te muestra en la pantalla qué panaderías están cerca. Con el gesto puedes llegar a una y te pone la ruta. Esto no es del futuro, compañeros, eh? O sea, esto está, o sea, ya existe. Hoy ustedes van a Estados Unidos, se compran sus este Ray-Ban Display meta y y jala. Ahora lo que pasa es que toma tiempo que esto de los mapas y todo este rollo vaya llegando a otros países, porque pues esto implica una una cuestión. Ahora, dime algo hermano, a ver si esta pregunta no, no está muy volada, pero tomando en cuenta que el riesgo es el tercero. O sea, vamos a regresar al ejemplo del atardecer, no? O sea, o o tú y yo estamos cotorreando, estamos tú y yo. Estamos jugando fútbol, no? Y entonces te digo Ah, te voy a, te voy a anotar, voy a grabar cuando te va a tirar un penalti y alguien va pasando en la parte de atrás. Es muy difícil crear algo que asegure la privacidad de un tercero. O sea, es. O sea, de plano es tan complicado?
David Uvalle
Fíjate que si el tercero ya está pasando esto de que por lo menos si quieres viajar en ciertos países tienen que tomar tus fotos, tienen que tomar tus tus datos biométricos, entonces uno sabe que está su cara está ya grabada en muchos sistemas, no? Por ejemplo, el nuevo pasaporte de México. Creo que pasa si nada más te toma una foto, no?
Alberto Cruz
Si
David Uvalle
te pregunto por qué ya no lo tengo?
Alberto Cruz
No, no, no. Sí. O sea, tu foto y huellas. O sea, son las del foto.
David Uvalle
Y entonces, obviamente, el gobierno no compartir eso con la industria privada. Pero puede haber el escenario que haya una una compañía que diga Hey, yo te voy a ayudar a anonimizarte en donde estés. Entonces dame tus datos biométricos, no? Y si hay leyes en tu país que puedan prevenir este tipo de interacciones, yo me encargo de de aplicar esas leyes para que si alguien está grabando, no. El sistema de meta tiene que detectar las caras de los terceros y si el tercero está en esa base de datos, automáticamente se borra la cara.
Alberto Cruz
Ok, ok, ok, ok,
David Uvalle
pero entonces ahí hay como que la cara tiene que existir en una base de datos, tiene que estar grabada. O bueno, eso estoy diciendo para nivel individual también. No puedes hacer como si hubiese una ley en México que dijese no puedes grabar a terceros automáticamente tú tienes meta, te selecciono las personas que son de tu familia o tus amigos y todas las demás caras que detecte las va a borrar, no las va a poner borrosas. Eso se podría hacer, pero es lo mismo de que por qué? Por qué este sistema sería tan diferente que una cámara de celular o salir con una cámara normal a grabar? Entonces, en dónde está la raya de libertad de expresión? No de que quieres grabar un documental y pasan personas por atrás?
Alberto Cruz
Ajá,
David Uvalle
no? O quieres grabar un video y pasa alguien? No. Entonces ahí están. Ahí ya es como tu área está en medios, comunicación, privacidad. La forma tecnológica se puede resolver. Pero qué tanto se necesita? No?
Alberto Cruz
Sí, porque quedaría como capítulo de Black Mirror que estés tomando fotos con los lentes y todos bloqueados menos las personas que conoces. Pero aún así. Pues el tema es que sea muy claro cuando estés grabando. Yo creo que el tema, como siempre, es la novedad, no? O sea, ahorita
David Uvalle
sí, sí, sí.
La pulsera Neural Band: gestos que se vuelven texto
Alberto Cruz
Pues es un artículo muy nuevo y pues hemos pasado años agarrando el celular y utilizándolo para tomar fotos y antes de eso teníamos que agarrar cámaras con rollo de 35 milímetros o rollo de 110 para poder tomar fotos. Entonces cómo ibas a tomar fotos con el celular? O sea, esas aguas se irán calmando eventualmente. Ahora hermano, a ver, eh? Aquí el punto real es el tema de la pulsera, o sea la pulsera y los gestos. O sea, o sea, repito, para la gente que ni siquiera lo ha visto en video, hagan de cuenta que traen literalmente la pulserita en su en su en su muñeca. Fin. No tiene nada de hecho. De hecho, esta fancy, o sea, esta esta bonita. Ajá. Eh. Entiendo que está hecho con el material de, eh. Cómo se llama? Lo que llegó a Marte. Cómo se llama el vehículo que llegó a Marte? Se me iba a decir Land Rover, pero no se llama Land Rover. Esa es una marca de coche. Pero el el coche que el vehículo que
David Uvalle
es un Rover, un Rover,
Alberto Cruz
Un Rover. Y entonces este es con ese material. Y tú mueves la mano y tiene el gesto. Cómo funciona eso, hermano? Sabes? O sea, cómo mueves la mano y pasa algo? Es eso? Me me, me. Me explota la cabeza.
David Uvalle
Fíjate que no sé porque esta tecnología propietaria. Pero si me dijeras cómo se haría esto. Bueno, te pondrías el dispositivo, tendrías muchos usuarios, les pedirías que hiciesen una tarea, un movimiento y recolectarías los datos de los sensores y ya con ellos puedes entrenar un modelo matemático, un modelo de machine learning, un modelo de deep learning para tratar de clasificar el tipo de movimiento y saber si está a la derecha, a la izquierda, hacia arriba y hacia abajo, no? Y ya si tienes esos movimientos, pues ya puedes hacer sistemas más avanzados como lo que están haciendo para escribir mensajes de texto. He escuchado
Alberto Cruz
está brutal esto
David Uvalle
que he hecho reviews. La gente está escribiendo muy muy rápido con la muñeca sin hablar, no? Entonces estás con tus lentes, estás en un café, te mandan un mensaje, te sale en pantalla y quieres contestar y no quieres hablar. Simplemente mueves la muñeca y escribes rápidamente el mensaje que con el que vas a contestar, no? Aunque ya te salen también mensajes preseleccionados porque la inteligencia artificial lee el texto que te mandaron y dices oye, vamos a ir a tal lugar a comer, quieres ir y ya te salen cuatro o cinco opciones. Sí, sí quiero ir. No, no puedo ir. O sí, pero voy a llegar tarde. No, pero Pero luego nos vemos. No? Y puedes seleccionar esos mensajes rápidos o puedes escribir el tuyo.
Alberto Cruz
Esta tremendo, porque ahorita que mencionaste lo de la escritura para la gente que no lo ha visto literalmente es con un dedo, como si escribieran con un dedo, pero ese movimiento del dedo como si le estuvieran haciendo el cariñito a alguien escribiéndole te amo en la espalda. Piénsenlo. Así es. Es el mismo punto. Escribir en la palma de la mano, digamos. O sea, con un dedo. Es impresionante como se pasa la letra al lente. O sea, es una bestialidad. O sea. Sí. O sea. Sí. Sí. Es muy, muy asombroso. Lo que entiendo entonces es que la magia no está en el sensor, sino en el modelo de inteligencia artificial. Es correcto.
David Uvalle
La magia está ahorita en todo el hardware con el que hicieron. Increíble esa cámara que manda la luz y rebota. Muy buena tecnología. La bandita también tiene su propio mérito. Ahora la bandita con el modelo de inteligencia artificial es lo que te da la precisión, no? Entonces es una mezcla de buen hardware y buenos modelos de inteligencia artificial para gozar todas las características de lo que dijiste. Te traduce en tiempo real. Le pones tiene una opción que se llama inteligencia. Inteligencia artificial en vivo y el modelo está viendo todo al mismo tiempo escuchando, dándote sugerencias, viendo objetos, etcétera. Lo que dijiste, las instrucciones para caminar también ya viene integrado. Entonces es una y muchas aplicaciones que no tienen nada que ver con la inteligencia artificial, pero ya con ellas integradas con inteligencia, aplicaciones normales y aplicaciones con IA. Increíble. Ahora estaría mejor si tuviese 500 $ más barato.
Alberto Cruz
No, no, no. Bueno, pero para eso faltan dos o tres generaciones, no? O sea,
David Uvalle
Si, si.
Alberto Cruz
O sea, los normalitos. No? O sea, están caros. No tan caros. Estaban en 200 $ o. Bueno, si 200 $ y dices Bueno, pues ya traen la cámara y la pagas. Ahora para ir concluyendo este tema de este capítulo que es muy interesante. O sea, lo que entiendo es que el ente tiene, o sea, a ver si lo quiero decir medio totonaca, pero o sea, tiene es el reloj, es es el lente, las micrófonos, las cámaras, es todo esto que se llama bueno, por lo que entiendo que nos has platicado el famoso modelo multimodal, no? O sea que una inteligencia artificial puede correlacionar señales de distintas fuentes para entender contexto. Es correcto?
David Uvalle
Así es. Y también puedes tener un modelo multimodal que entienda imágenes y lenguaje y puedes tener diferentes modelos separados también. Por ejemplo, puedes tener un modelo que nada más sea experto en audio, no? Entonces tú hablas, dice meta, Dime qué lugares están abiertos para comer ahorita. Entonces solamente un modelo es experto en audio, es experto en agarrar tu tu voz y pasarla texto. Entonces agárrese la salida del texto y lo mete el modelo multimodal que entiende el lenguaje de imágenes. No? Entonces el otro modelo empieza desde ahí, dice A esta persona le está platicando, me está pidiendo de restaurantes o lugares a los cuales están abiertos. Entonces el otro modelo te puede mandar imágenes o te puede contestar en texto, o puedes tener un modelo mega modelo que entienda todo también. Entonces puedes combinar. Son como piezas de Lego, bloques de Lego.
Alberto Cruz
Wow! Ahora, en realidad, eh, yo pienso no. Que tú nos has platicado muchas veces de los riesgos de privacidad que hay, que son personas malas que de repente intentan vulnerar a una empresa que lo está haciendo bien, no como meta, o sea, lo está haciendo bien, etcétera. Al final ese sigue siendo un riesgo, no? O sea, ya lo has platicado, o sea, del nunca falta el grupo de gente mala que quiere vulnerar este sistema, esta información, estos famosos datos biométricos de alto riesgo, o sea lo que estamos. Esto es una cosa que tú me habías platicado que se llama Embodied AI, o sea, es cuando ya lo lo empiezas a a traer en en tu en tu los lentes, el reloj, el anillo es eso es.
David Uvalle
Por ahí va en body de IA es más como robots entidades afuera de ti. Esto todavía estaría como más más en wearables y ubiquitous computing cómputo que esté ubicuo y Y tú que? Que lo estés usando, no? Y ahí se está yendo un poquito más por el estos conceptos de ficción de los nuevos androides no? De que como el humano se va poco a poco transformando en una fusión de robot con con humano. Cuando empiezas a usar muchos de estos dispositivos
Conclusión: la fusión humano-máquina
Alberto Cruz
como Kim Kardashian, no como Kim Kardashian, a que lo iba a hacer con cuando cuando estaba con este Kanye West? No? O este que iban a hacer? Casi, casi, eh, superhumanos. Oye, pero vamos a tener un capítulo de robots, de hecho. O sea, vamos a tener un capítulo en el que vamos a hablar de ello porque ya están entre nosotros Y ustedes no se han dado cuenta? Bueno, hermano, a mí esto de los lentes me me me vuelve loco, reitero. O sea, tú lo explicaste en un proceso a lo mejor de dos o tres minutos, como pasa la solicitud y entonces el el modelo dice se va por acá y el otro modelo, etcétera Platicado parece que es una eternidad, pero en realidad estamos hablando que son segundos.
David Uvalle
Sí, sí, microsegundos, milisegundos. Tiene que ser todo muy muy rápido.
Alberto Cruz
Impresionante, impresionante. Oye, y no, no has tenido nada, Ningún wearable, ni un wearable?
David Uvalle
No, la verdad no, que los quiero, pero están muy caros. Me estoy esperando a que bajen los precios y ya.
Alberto Cruz
Porque solo para ir concluyendo, recordemos. O sea, un wearable desde los audífonos que miden el pulso a través del oído este. O sea, hay una eternidad. Lo que sí es que los lentes de meta llegaron a poner el juego, o sea, llegaron a poner un balón nuevo en el juego. Ya con esta cosa de la muñeca es impresionante. Tan impresionante que hemos dedicado un capítulo completo de los dioses de la IA.
David Uvalle
Fíjate, lo último que te voy a contar fui una conferencia en Suecia 2017, Conferencia de Inteligencia Artificial y hablé con los de Facebook que todavía no eran meta y me contaron que estaban entrenando un modelo en base a los patrones neuronales. Entonces te pones un casco y te hacían ver imágenes patito, perro, gato, no? Y ellos usaban esos datos para entrenar el modelo para poder predecir que ibas a pensar después, no? Eso fue en 2017, ya querían leerte la mente. Entonces ahorita estamos en 2025, ya saben, con ciertos movimientos de la muñeca que estás tratando de hacer. Imagínate que vienen en los siguientes dos o tres años, no? Si esta tecnología les funcionó. Y si pueden entender las ondas cerebrales, imagínate.
Alberto Cruz
Bueno, recordemos que Apple tiene una patente de cómo se llaman los AirPods, los audífonos de Apple, los AirPods que pueden leerte la mente. O sea, patentado. Está loquísimo, no?
David Uvalle
Sí, sí, sí. Para allá vamos.
Alberto Cruz
Para allá vamos. Pues muchas gracias, hermano. Gracias por este capítulo de los dioses de la inteligencia artificial. No olviden que visitar nuestro sitio web, Los dioses del puntocom. Y gracias a toda la gente que nos escucha en en Apple, en Spotify y en todos los sistemas de streaming. Gracias hermano. Nos escuchamos en el siguiente capítulo.
David Uvalle
Gracias hermano. Hasta la próxima.
Voz IA
Aquí termina esta sesión. Pero la máquina sigue observando y observando. Esto fue Los dioses de la inteligencia artificial. Cerramos por ahora, pero ya nada es igual. Ya nada es igual.