Quién vigila al vigilante de la IA: matemáticas para controlar a la inteligencia artificial

Investigadores de la Universidad de Waterloo desarrollan un método que combina matemáticas, aprendizaje automático y verificación formal para garantizar la seguridad y estabilidad de los sistemas de inteligencia artificial. Una nueva forma de vigilar al vigilante digital.

Por Enrique Coperías

Dos robots humanoides en un laboratorio simbolizan el nuevo enfoque de la Universidad de Waterloo: una inteligencia artificial supervisa a otra para verificar matemáticamente su seguridad y estabilidad mediante ecuaciones y redes neuronales.

Dos robots humanoides en un laboratorio simbolizan el nuevo enfoque de la Universidad de Waterloo: una inteligencia artificial supervisa a otra para verificar matemáticamente su seguridad y estabilidad mediante ecuaciones y redes neuronales. Imagen generada con DALL-E

A medida que los sistemas de inteligencia artificial (IA) se adentran en ámbitos cada vez más críticos, desde la conducción autónoma hasta el control de redes eléctricas y la gestión de drones, surge una pregunta inquietante: ¿quién garantiza que esas máquinas tomarán siempre decisiones seguras.

Un grupo de investigadores de la Universidad de Waterloo, en Canadá, ha desarrollado un método matemático para responder precisamente a eso: una forma de vigilar al vigilante digital.

En un artículo publicado en la revista Automatica, los matemáticos Jun Liu, Yiming Meng, Maxwell Fitzsimmons y Ruikun Zhou presentan una herramienta que combina ecuaciones diferenciales, teoría de estabilidad y redes neuronales profundas para verificar formalmente el comportamiento de sistemas de IA. En esencia, su trabajo busca dotar a la inteligencia artificial de algo parecido a un certificado matemático de seguridad.

La estabilidad: el corazón de la fiabilidad en la IA

En ingeniería y en matemáticas aplicadas, un sistema es estable cuando, tras una perturbación, tiende a volver a su estado de equilibrio. Si un dron es golpeado por una ráfaga de viento y logra recuperar su trayectoria, decimos que es estable. En los sistemas autónomos, esta propiedad resulta crucial, ya que determina si una máquina seguirá funcionando de manera controlada o si, ante un imprevisto, puede acabar fuera de control.

Para estudiar esa estabilidad, los matemáticos recurren a una herramienta centenaria: la función de Lyapunov, llamada así por el científico ruso Aleksandr Lyapunov, que en el siglo XIX formuló un criterio general para decidir si un sistema dinámico es estable sin necesidad de simularlo infinitas veces. En pocas palabras, una función de Lyapunov actúa como una especie de energía virtual: si siempre disminuye con el tiempo, el sistema es seguro.

El problema es que encontrar esa función —especialmente en sistemas complejos o no lineales, como los que gobiernan la IA modernaes extraordinariamente difícil. Durante décadas, los ingenieros han recurrido a aproximaciones polinómicas o a métodos de programación convexa, como las llamadas técnicas de sumas de cuadrados (SOS), para buscar soluciones. Pero esos métodos se vuelven rápidamente inviables cuando el número de variables crece o cuando el sistema no se ajusta a una forma algebraica simple.

«Cada vez que trabajamos con un sistema dinámico, algo que cambia con el tiempo, como un vehículo autónomo o una red eléctrica, podemos modelarlo matemáticamente mediante ecuaciones diferenciales —explica Jun Liu, profesor de Matemáticas Aplicadas y titular de la Cátedra de Investigación de Canadá en Sistemas Híbridos y Control. Y añade—: Para predecir el comportamiento a largo plazo de estos sistemas, los científicos e ingenieros recurren a una herramienta matemática llamada función de Lyapunov. De forma intuitiva, esta herramienta muestra si un sistema tenderá naturalmente a alcanzar un estado estable y seguro, como una pelota que rueda hasta el fondo de un cuenco y se queda allí. Encontrar una función así, sin embargo, suele ser una tarea notoriamente difícil».

Redes neuronales que aprenden matemáticas

La propuesta del equipo de Waterloo parte de una idea poderosa: usar redes neuronales no solo para imitar datos, sino para resolver ecuaciones diferenciales parciales (PDE) que describen las condiciones de estabilidad. Su enfoque pertenece a una familia de métodos conocida como redes neuronales informadas por la física (PINN), también conocidas como redes neuronales entrenadas teóricamente, en la que las leyes físicas —en este caso, las ecuaciones de Lyapunov y Zubov— se integran directamente en el entrenamiento de la red.

«Para afrontar este desafío —continúa Liu— nosotros recurrimos al aprendizaje automático. Construimos una red neuronal que aprende a cumplir las reglas matemáticas que determinan si un sistema permanece estable y seguro: las mismas reglas en las que los ingenieros confían para mantener bajo control las redes eléctricas y los vehículos autónomos».

El método no se limita a ajustar parámetros para que los resultados parezcan correctos: obliga a la red a satisfacer de manera explícita una ecuación diferencial que garantiza la estabilidad. Así, la red no solo “aprende” de ejemplos, sino de principios físicos y matemáticos.

En concreto, los autores traducen la condición de Lyapunov —«la energía del sistema siempre debe disminuir»— en una ecuación diferencial parcial lineal. Luego reformulan el problema con la ecuación de Zubov, una versión más sofisticada que permite determinar no solo si un sistema es estable, sino cuál es exactamente su región de atracción, es decir, el conjunto de condiciones iniciales desde las cuales el sistema volverá al equilibrio. Esa región puede interpretarse como el perímetro de seguridad del sistema: dentro de ella, todo es estable; fuera, el caos.

Aprendizaje automático y verificación formal: el nuevo estándar de seguridad

Una de las aportaciones más notables del estudio es que el método no se queda en la simulación. Tras entrenar la red neuronal, los investigadores aplican verificadores formales, herramientas de lógica computacional conocidas como SMT solvers (por Satisfiability Modulo Theories), capaces de comprobar matemáticamente la estabilidad.

En otras palabras, el sistema combina aprendizaje automático y prueba formal: la red propone una función candidata y el verificador confirma si esa función certifica la estabilidad del sistema. Si no lo hace, el proceso se repite hasta encontrar una solución válida.

«Puede parecer sorprendente usar una forma de inteligencia artificial para comprobar otra, pero la IA es un campo muy amplio —reconoce Liu. Y añade—: En nuestro trabajo, las redes neuronales —un tipo común de IA— aprenden demostraciones matemáticas de seguridad e incluso, en algunos casos, diseñan los propios controladores, mientras que un sistema basado en lógica —otra forma de IA razonadora— verifica que esas demostraciones sean correctas. Ambas son tareas que antes los investigadores tenían que realizar manualmente».

El resultado es una función de Lyapunov aprendida y demostrada, que permite calcular regiones seguras con una precisión superior a los métodos clásicos. Según el artículo, las redes neuronales informadas por la física logran aproximaciones «verificables y cercanas al dominio real de atracción», superando a las técnicas tradicionales de programación semidefinida (SDP).

Casos de estudio: del oscilador de Van der Pol a las redes eléctricas

Para demostrar su enfoque, el equipo de matemáticos aplicó su método a varios sistemas de referencia en control automático. Uno de los más conocidos es la ecuación de Van der Pol, un oscilador no lineal que modela desde circuitos eléctricos hasta el latido del corazón. En su versión reversa, el sistema presenta comportamientos altamente inestables, lo que lo convierte en un excelente campo de pruebas.

El algoritmo de Waterloo entrenó una red neuronal con dos capas ocultas y treinta neuronas por capa para resolver la ecuación de Zubov correspondiente. El resultado fue revelador, pues el área verificada de estabilidad, o sea, la zona en la que el sistema se mantiene seguro, superó la obtenida por las funciones de Lyapunov polinómicas clásicas, incluso cuando estas alcanzaban el sexto grado.

El avance se volvió aún más notable al aumentar la rigidez del sistema, un parámetro que lo hace más difícil de estabilizar. En todos los casos, el método neural logró regiones de atracción más amplias y verificadas matemáticamente, con un equilibrio óptimo entre expresividad y capacidad de comprobación.

Una investigadora observa cómo dos inteligencias artificiales se evalúan entre sí en una simulación de laboratorio.

Una investigadora observa cómo dos inteligencias artificiales se evalúan entre sí en una simulación de laboratorio. La escena ilustra el trabajo del equipo de la Universidad de Waterloo, que combina matemáticas, lógica y redes neuronales para verificar la seguridad y estabilidad de los sistemas autónomos. Imagen conceptual generada con DALL-E

Redes eléctricas y sistemas de gran escala

El segundo caso de estudio fue un modelo simplificado de un sistema eléctrico de dos máquinas, una referencia clásica en ingeniería de potencia. Aquí, las redes neuronales demostraron ser especialmente eficaces: lograron certificar zonas de estabilidad más extensas que las obtenidas mediante funciones racionales o SOS, y además con verificación formal automática.

El equipo probó también sistemas de mayor dimensión —de diez y hasta veinte variables—, entre ellos una red de osciladores de Van der Pol interconectados. Estos experimentos, imposibles de abordar con los métodos convencionales de verificación debido al crecimiento exponencial de la complejidad, mostraron que las redes neuronales entrenadas con información física pueden escalar a problemas de alta dimensión.

En estos casos, los investigadores recurrieron a una estrategia composicional, es decir, verificaron la estabilidad de cada subsistema por separado y luego ensamblaron las pruebas para obtener garantías globales. Aunque el proceso sigue siendo costoso —el entrenamiento completo de la red de veinte dimensiones tomó más de siete horas de CPU y más de doce horas de verificación—, marca un hito en la combinación de IA, física y rigor matemático.

El desafío de la verificación y el futuro de la IA confiable

Uno de los retos que el propio equipo reconoce es el cuello de botella en la verificación formal. Los SMT solvers, como dReal y Z3, ofrecen garantías matemáticas, pero consumen enormes recursos computacionales, especialmente cuando las redes son profundas o los sistemas, no lineales. «La verificación sigue siendo el principal obstáculo para escalar a sistemas de muy alta dimensión», admiten los autores en el artículo científico.

Aun así, el avance es significativo: por primera vez, una red neuronal no solo aprende una función de estabilidad, sino que puede ser auditada matemáticamente. Este enfoque abre la puerta a una nueva generación de herramientas de control y certificación para sistemas autónomos, en los que el aprendizaje automático no sustituye a las matemáticas, sino que trabaja con ellas.

«Para ser claros, nadie intenta crear fábricas o sistemas gestionados por completo por IA sin intervención humana —aclara Liu. Y añade—: Hay ámbitos, como la ética, que siempre estarán guiados por el juicio humano. Lo que hacen estos controladores de IA y asistentes de prueba es asumir las tareas computacionalmente más intensivas, como decidir cómo distribuir la energía en una red o construir demostraciones matemáticas tediosas, para liberar a las personas y permitirles centrarse en decisiones de nivel superior».

Hacia una IA con garantía matemática

El trabajo de Liu y sus colegas tiene implicaciones que van más allá del control automático. En última instancia, se trata de construir mecanismos de confianza para la IA: garantizar que, incluso en entornos dinámicos y complejos, los algoritmos actúan dentro de límites seguros demostrables.

Esta línea de investigación se inscribe en el esfuerzo global por lograr una inteligencia artificial verificable, capaz de ofrecer garantías de seguridad similares a las que se exigen en la aviación o en los sistemas médicos. La novedad es que ahora las propias herramientas de aprendizaje automático pueden participar en esa certificación, gracias a la integración de física, lógica y machine learning.

Como resume Jun Liu, responsable del Laboratorio de Sistemas Híbridos de la Universidad de Waterloo, «nuestro objetivo es que la IA no sea una caja negra, sino un sistema cuyas decisiones puedan ser justificadas matemáticamente».

El futuro del proyecto apunta hacia aplicaciones en control óptimo, robótica y sistemas con perturbaciones o entradas externas, así como en el diseño de barreras de seguridad basadas en Lyapunov. El grupo de Waterloo ya trabaja en ampliar su plataforma de software LyZNet, para incorporar nuevos verificadores y acelerar los cálculos.

Mientras tanto, el avance marca un punto de inflexión en la manera de concebir la relación entre IA y matemáticas: no como fuerzas opuestas, sino como aliadas en la construcción de inteligencia segura y confiable. O, dicho en los términos del propio artículo, una forma de garantizar que, por fin, alguien vigile al vigilante.▪️

Anterior
Anterior

Cómo los sueños moldean la espiritualidad: un modelo de IA desvela una conexión entre el sueño y la fe

Siguiente
Siguiente

Una flores de ADN llevan medicamentos justo donde el cuerpo los necesita