Robots que repiensan: la nueva generación de inteligencia artificial encarnada capaz de adaptarse al entorno

Los robots empiezan a abandonar los guiones rígidos para aprender a improvisar en escenarios reales. Una nueva generación de inteligencia artificial encarnada promete máquinas capaces de razonar, adaptarse y comprender el entorno como nunca antes.

Por Enrique Coperías

En el área de la IA encarnada, los robots pueden ejecutar un guion fijo a la perfección.

En el área de la IA encarnada, los robots pueden ejecutar un guion fijo a la perfección. Pero en cuanto algo cambia, como una taza mal colocada a la hora de hacer un café, incluso el robot más avanzado puede fallar porque ese caso no está codificado.Cubrir ese hueco entre una inteligencia estática y un razonamiento adaptativo es lo que inspira el proyecto comandado por Zhu Bin, en la Singapore Management University. Crédito: IA-Copilot-RexMolón Producciones

La inteligencia artificial encarnada —la que combina software con sensores, cámaras y capacidad de actuar en el mundo físico— avanza, aunque todavía tropieza con obstáculos tan cotidianos como inesperados. Robots autónomos que ensamblan piezas en fábricas, brazos robóticos que asisten en cirugías o coches autónomos que navegan por la ciudad ya son parte del paisaje tecnológico.

Sin embargo, basta esconder una taza en un armario para que un robot doméstico, incluso uno muy avanzado, sea incapaz de preparar un simple café.

Observaciones «simples pero frustrantes» como esta fueron las que impulsaron a Zhu Bin, profesor de Ciencias de la Computación en la Singapore Management University (SMU), a plantear un proyecto para dotar a los robots de una capacidad esencial: replantear su plan de acción cuando el entorno cambia. Su propuesta, Self-Adaptive Planning with Environmental Awareness for Embodied Agents, acaba de obtener financiación del Ministerio de Educación de Singapur.

«En el área de la IA encarnada, los robots pueden ejecutar un guion fijo a la perfección. Pero en cuanto algo cambia, como una taza mal colocada, incluso el robot más avanzado puede fallar porque ese caso no está codificado —explica Zhu. Y añade—: Cubrir ese hueco entre una inteligencia estática y un razonamiento adaptativo es lo que inspiró este proyecto».

¿Qué es la IA encarnada?

En la actualidad, la IA encarnada avanza a gran velocidad, pero aún se encuentra lejos de alcanzar la flexibilidad del comportamiento humano en entornos reales. La mayoría de los sistemas comerciales siguen dependiendo de rutas de acción predefinidas, limitadas por datos incompletos o por una comprensión superficial del contexto.

A ello se suman retos técnicos como la interpretación fiable de escenas dinámicas, la coordinación fina entre percepción y acción o la dificultad de integrar modelos generales —como los grandes modelos de lenguaje— con sensores físicos que operan en tiempo real. Pese a esto, el campo vive un momento decisivo: cada nuevo avance en visión computacional, razonamiento multimodal y robótica adaptable acerca la posibilidad de máquinas capaces de improvisar, aprender de la experiencia y desenvolverse con autonomía en hogares, hospitales o espacios públicos.

Las perspectivas, según coinciden los expertos, apuntan a una década en la que la IA encarnada dejará de ser un experimento de laboratorio para convertirse en un actor cotidiano.

De ejecutar órdenes a razonar: el salto clave en la IA encarnada

En este sentido, el objetivo de Zhu es sentar las bases de una nueva generación de sistemas capaces de razonar por qué y cómo actuar, no únicamente de ejecutar órdenes. Según el investigador, este salto permitiría desarrollar aplicaciones de alto impacto social, desde asistentes robóticos para personas mayores en tareas complejas, como preparar comidas o recordar la medicación, hasta robots de apoyo en rehabilitación capaces de ajustar los ejercicios en función de la fatiga o la evolución de un paciente.

En Singapur, donde el envejecimiento de la población preocupa cada vez más, estas innovaciones son particularmente relevantes. La investigación subraya que avances de este tipo pueden impulsar desarrollos «socialmente responsables» y contribuir al objetivo estratégico del país de convertirse en un líder global en tecnologías inteligentes. «En términos prácticos, las aplicaciones potenciales son amplias y socialmente significativas», resume Zhu.

El trabajo lo lidera él junto con el profesor Kotaro Hara, también de SMU, además del doctorando Franklin Li Mingzhe y el profesor asociado Patrick Carrington, ambos del Human-Computer Interaction Institute de la Universidad Carnegie Mellon (Estados Unidos).

Entrenamiento intensivo: 60.000 vídeos para aprender a interpretar el mundo real

El proyecto aborda tres grandes limitaciones de la IA actual:

1️⃣ Su dependencia de los grandes modelos de lenguaje (LLM), como ChatGPT o DeepSeek, que generan planes «irreales o irrelevantes» cuando carecen de conocimientos específicos del entorno.

2️⃣ La escasa conciencia contextual: muchos sistemas no detectan pequeños cambios en su entorno, lo que resulta crítico en escenas domésticas o laborales.

3️⃣ Su rigidez, esto es, la imposibilidad de desviar su conducta cuando algo no coincide con su guion preprogramado.

La solución pasa por un entrenamiento mucho más exhaustivo. El sistema concebido por Zhu y sus colegas analizará unos 60.000 vídeos, procedentes de doscientas tareas de cocina distintas repetidas unas trescientas veces cada una. El objetivo es que el agente aprenda a seguir objetos, detectar variaciones mínimas y desenvolverse en un entorno dinámico. «Los trabajos existentes en comprensión de vídeo suelen descuidar la complejidad de rastrear objetos en entornos interactivos y cambiantes», indica la documentación del proyecto.

Para mejorar aún más esa adaptabilidad, el equipo desarrollará un LLM especializado que permitirá al robot refinar su plan en tiempo real, basándose en lo que ve y percibe. Así podrá, por ejemplo, deducir que las tazas suelen guardarse en armarios cuando no las encuentra en la encimera, abrir la puerta y revisar su interior antes de continuar la tarea. «Esto hace que el agente sea más flexible, fiable y sensible en situaciones cotidianas», señala Zhu.

La ambición del equipo de ingenieros es considerable: «El éxito de este proyecto podría redefinir la investigación en agentes encarnados», afirma el equipo.

A largo plazo, el equipo de informáticos aspira a crear asistentes robóticos empáticos, conscientes del entorno y orientados al bienestar humano.

A largo plazo, el equipo de informáticos aspira a crear asistentes robóticos empáticos, conscientes del entorno y orientados al bienestar humano. Cortesía: IA-Gemini-RexMolón-Producciones

Una arquitectura modular y preparada para futuras generaciones de IA

Para evitar que los avances queden desactualizados en un campo que evoluciona a gran velocidad, Zhu subraya que el sistema se diseñará como una arquitectura modular, transferible y plug-and-play, fácil de integrar con nuevos modelos de IA.

🗣️ «Nuestro objetivo son algoritmos generales y transferibles, no una instantánea de un modelo concreto —explica Zhu—. En lugar de competir con cada nueva versión, construiremos un marco modular que pueda seguir siendo relevante en un ámbito que cambia muy rápido».

Este enfoque favorece tanto el posicionamiento en buscadores semánticos como la reutilización del sistema en nuevos escenarios, un valor creciente en el ecosistema de IA generativa.

¿Y si un robot se descontrola? La seguridad como prioridad

Por último, el auge de los agentes autónomos ha reavivado los temores a un comportamiento inesperado o peligroso, especialmente cuando interactúan con personas vulnerables. Zhu reconoce las inquietudes, pero las considera manejables con las debidas precauciones. «La seguridad es siempre una consideración clave en cualquier proyecto que pretenda llevar sistemas de IA encarnada al mundo físico», afirma.

Las medidas pasan por la supervisión humana, restricciones basadas en reglas y pruebas extensas en entornos reales antes de cualquier despliegue en ámbitos sensibles como la atención sanitaria o el cuidado de mayores. «Estas garantías aseguran que los agentes actúen dentro de límites bien definidos y siempre bajo supervisión humana», subraya el experto.

A largo plazo, el equipo aspira a que estos robots se conviertan en asistentes de IA empáticos, conscientes del entorno y capaces de complementar el trabajo humano. O, en palabras del propio Zhu, en «asistentes de IA que complementen el cuidado humano y fomenten formas de vida más seguras e independientes».▪️

Anterior
Anterior

La mitad de los novelistas británicos temen ser reemplazados por la inteligencia artificial, según un estudio de Cambridge

Siguiente
Siguiente

Jugar al pickleball con frecuencia mejora la salud mental