Durante décadas, los investigadores de robótica soñaron con construir máquinas capaces de moverse por el mundo como lo hacen las personas. Pero la ambición solía encallar en la realidad: se apuntaba a C-3PO y se terminaba perfeccionando un brazo industrial o una aspiradora autónoma.
En 2025, algo cambió. Solo ese año, empresas e inversores destinaron 6.100 millones de dólares a robots humanoides —cuatro veces más que en 2024—. No fue un golpe de suerte ni una moda pasajera. Fue el resultado de una transformación silenciosa, acumulada a lo largo de más de una década, en la forma en que las máquinas aprenden a interactuar con el mundo real.
Reglas escritas a mano: el viejo oficio de la robótica
Durante décadas, programar un robot significaba anticipar cada posibilidad antes de que ocurriera. El ejemplo de plegar una camiseta lo ilustra bien: hay que identificar el cuello, localizar cada manga, calcular la fuerza necesaria sin rasgar la tela, corregir si la prenda está girada o arrugada. El número de reglas crece deprisa, y cualquier variación imprevista —una tela distinta, una posición inesperada— dejaba al robot sin respuesta.
El robot social Jibo, presentado en 2014 por la investigadora del MIT Cynthia Breazeal, ilustra bien las limitaciones de aquella etapa. Recaudó 3,7 millones de dólares en una campaña de financiación colectiva y prometía ser un asistente familiar con personalidad propia. Sus conversaciones dependían de fragmentos de respuesta preaprobados, lo que lo dejaba en clara desventaja frente a Siri o Alexa. La empresa cerró en 2019. No fracasó por falta de visión, sino porque las herramientas disponibles no podían sostenerla.
Simulación y ensayo-error: cuando los robots empezaron a practicar solos
Hacia 2015, los laboratorios más avanzados comenzaron a abandonar las reglas escritas a mano. La nueva apuesta era entrenar robots mediante simulaciones digitales: se les asignaba una recompensa cuando completaban una tarea y una penalización cuando fallaban, y se les dejaba repetir el proceso millones de veces. Era el mismo principio que había permitido a la inteligencia artificial dominar videojuegos.
OpenAI llevó esta idea a un caso concreto con Dactyl, una mano robótica presentada en 2018. El desafío era enseñarle a manipular un cubo con letras y números en sus caras. El problema central era la brecha entre la simulación y el mundo real: pequeñas diferencias en la fricción, la iluminación o la elasticidad de los materiales podían desbaratar todo lo aprendido.
La solución fue la domain randomization: crear millones de mundos simulados con variaciones aleatorias para que el robot se acostumbrara a la incertidumbre. El método funcionó lo suficiente como para que Dactyl resolviera cubos de Rubik, aunque solo el 60 % de las veces —y apenas el 20 % cuando los patrones eran especialmente complejos—. OpenAI cerró su división de robótica en 2021, aunque recientemente ha retomado esa línea de trabajo.
Modelos fundacionales: la llegada de ChatGPT cambia las reglas del juego
La irrupción de los grandes modelos de lenguaje en 2022 supuso un giro conceptual profundo. En lugar de aprender por ensayo y error, los nuevos sistemas absorbían enormes cantidades de datos —imágenes, lecturas de sensores, posiciones articulares— y aprendían a predecir cuál debería ser la siguiente acción. El mismo principio que permite a un modelo de lenguaje anticipar la siguiente palabra se trasladó al control físico de máquinas.
Google fue uno de los primeros en aplicarlo a escala. Su equipo pasó 17 meses documentando 700 tareas distintas para construir RT-1, un modelo que completaba con éxito el 97 % de las tareas conocidas y el 76 % de las nuevas. Con RT-2, entrenado con imágenes generales de internet, las capacidades se ampliaron de forma notable. Según Kanishka Rao, uno de los responsables del proyecto en Google DeepMind, esto permitió instrucciones como «pon la lata de Coca-Cola junto a la foto de Taylor Swift».
Covariant desarrolló RFM-1, un modelo que permite a brazos robóticos en almacenes reales interactuar como si fueran compañeros de trabajo: pedir consejo, anticipar dificultades, responder a instrucciones en lenguaje natural. El sistema mostró sus límites cuando se le pidió «devolver el plátano» a su lugar original: tardó en comprender que debía rehacer sus propios pasos. «No entiende el nuevo concepto», reconoció el cofundador Peter Chen.
Humanoides en el almacén: Digit y la prueba de fuego
El dinero que fluye hacia la robótica en 2025 apunta, en su mayoría, a robots con forma humana. La lógica es directa: un humanoide puede operar en espacios diseñados para personas sin necesidad de rediseñar líneas de montaje ni instalaciones enteras.
Digit, de Agility Robotics, es uno de los pocos ejemplos que ya opera en entornos reales con resultados tangibles. Amazon, Toyota y la empresa logística GXO —con clientes como Apple y Nike— lo han desplegado en sus almacenes para mover y apilar contenedores. Es uno de los primeros humanoides que las empresas consideran una fuente real de ahorro, no un experimento de escaparate.
Las limitaciones son concretas. Digit solo levanta 16 kilogramos, y cada mejora en su capacidad de carga implica una batería más pesada y recargas más frecuentes. Los organismos de normalización exigen además estándares de seguridad más estrictos para robots móviles que trabajan cerca de personas.
Sin método único: la convergencia de técnicas que impulsa el futuro
Lo que ha producido esta transformación no es una sola tecnología, sino la fusión de varias. Agility combina técnicas de simulación heredadas de OpenAI con modelos Gemini de Google DeepMind para ayudar a sus robots a adaptarse a entornos nuevos. En 2025, Google DeepMind lanzó Gemini Robotics, integrando comprensión de lenguaje natural con control físico en un único sistema.
El progreso trae consigo riesgos nuevos. Las conversaciones generadas por IA no pueden acotarse con la misma facilidad que los guiones predefinidos. Algunos juguetes con IA han llegado a hablar a niños sobre cómo encontrar cerillas y cuchillos —un recordatorio de que los límites del sistema importan tanto como sus capacidades.
Los robots ya pueden aprender; la pregunta es si pueden hacerlo de forma segura, a escala y en los entornos desordenados donde las personas realmente los necesitan. De eso dependerá si esta transformación silenciosa acaba siendo tan profunda como promete.
