Cómo el cerebro diminuto de las abejas puede transformar la inteligencia artificial y la robótica
Un modelo computacional desvela que estos insectos usan su vuelo para aprender y reconocer patrones visuales complejos, con implicaciones clave para la inteligencia artificial, la robótica autónoma y la visión artificial.
Por Enrique Coperías
Una abeja imparte clase a estudiantes androides en esta ilustración inspirada en un estudio de la Universidad de Sheffield, que demuestra cómo los movimientos de vuelo de las abejas les permiten procesar información visual de forma extraordinariamente eficiente. Esta estrategia de visión activa ha inspirado modelos de inteligencia artificial más compactos y energéticamente sostenibles, con aplicaciones prometedoras en robótica y sistemas autónomos. Imagen generada con DALL-E
Las abejas, esos pequeños insectos que asociamos con la miel y la polinización, podrían tener la clave para una revolución en la inteligencia artificial (IA) y la robótica.
Un equipo de investigadores de la Universidad de Sheffield y la Queen Mary University of London, en el Reino Unido, ha logrado lo que parecía impensable: replicar en un modelo computacional el proceso mediante el cual las abejas, que poseen unos cerebros minúsculos, con apenas un millón de neuronas (el humano tiene 86.000 millones), son capaces de reconocer patrones visuales complejos con una eficiencia sorprendente.
El estudio, publicado en la revista eLife, revela que el secreto de esta habilidad no está únicamente en sus ojos compuestos ni en su limitada capacidad cerebral, sino en cómo las abejas se mueven.
Qué es la visión activa de las abejas
En concreto, el modo en que vuelan y escanean su entorno activa una serie de respuestas neuronales que les permite ver mucho más de lo que uno imaginaría. Este proceso, conocido como visión activa, no solo permite a estos insectos distinguir flores entre el follaje, sino incluso, como ya se ha demostrado en estudios previos, reconocer rostros humanos.
Lo innovador de este nuevo trabajo radica en que, por primera vez, se ha logrado modelar en detalle cómo esos movimientos físicos durante el vuelo influyen en las señales eléctricas cerebrales que se generan.
Según explica el doctor HaDi MaBouDi, autor principal del estudio, «en nuestro trabajo anterior descubrimos que las abejas utilizaban una especie de atajo visual, que consiste en escanear sistemáticamente partes del patrón. Pero eso nos decía lo que hacían, no cómo lo hacían. Con este modelo computacional, hemos podido ver el proceso neuronal que hay detrás».
Cómo funciona el modelo: una red neuronal inspirada en insectos
El modelo desarrollado es una red neuronal artificial que imita la arquitectura del sistema visual de la abeja, e incluye las regiones cerebrales responsables del aprendizaje, como la lóbula, una de las principales regiones del lóbulos ópticos del cerebro de los insectos, y las corpora pedunculata, estructuras de nivel superior implicadas en la integración de la información olfativa, visual y mecanosensorial y la formación de recuerdos en esta clase de animales.
Pero no se trata simplemente de una copia del cerebro. Este modelo incorpora principios de codificación eficiente y aprendizaje no asociativo, es decir, no requiere recompensas ni penalizaciones para modificar sus conexiones internas. Basta con que observe patrones visuales mientras simula un vuelo de exploración, para que sus neuronas se reconfiguren solas en función de lo que va viendo.
El resultado es una red con capacidades asombrosas. Al igual que las abejas reales, esta abeja artificial fue capaz de:
🐝 Aprender a distinguir patrones, como un signo de suma (+) y uno de multiplicación (×).
🐝 Identificar rostros humanos.
Y todo ello con una cantidad mínima de neuronas activas. Esto último es especialmente significativo: el modelo demuestra que con tan solo 36 neuronas en la lóbula —la región visual que envía información al área de aprendizaje— es suficiente para realizar tareas complejas de discriminación visual.
Los microcerebros de las abejas, con muy pocas neuronas, resuelven tareas visuales complejas. “Incluso pueden reconocer rostros humanos”, afirma el profesor Lars Chittka.
Lecciones de un insecto a la IA
Esta eficiencia en el uso de recursos ha llamado la atención del profesor James Marshall, director del Centro de Inteligencia Artificial de la Universidad de Sheffield y coautor del estudio.
«Con este trabajo hemos demostrado que incluso los cerebros más diminutos pueden usar el movimiento para percibir y comprender el mundo —comenta Marshall—. Es una prueba de que un sistema pequeño y eficiente —aunque producto de millones de años de evolución— puede realizar cálculos complejos mucho más allá de lo que pensábamos».
Marshall subraya que este hallazgo no solo tiene valor en el ámbito de la biología. La implicación más emocionante, según él, está en el futuro de la inteligencia artificial:
«Aprovechar los mejores diseños de la naturaleza para crear inteligencia abre la puerta a una nueva generación de IA eficiente, con aplicaciones en robótica, vehículos autónomos y sistemas de aprendizaje en entornos reales».
Interacción entre cerebro, cuerpo y entorno
El modelo se basa en la idea de que la inteligencia no está únicamente en el cerebro, sino en la interacción entre cerebro, cuerpo y entorno. En palabras del doctor MaBouDi, «hemos aprendido que las abejas no solo ven el mundo, sino que lo modelan activamente con sus movimientos. Es un ejemplo precioso de cómo acción y percepción están profundamente entrelazadas para resolver problemas complejos con recursos mínimo».
Uno de los descubrimientos clave del estudio es que los movimientos de escaneo durante el vuelo modifican las señales neuronales que recibe. En lugar de observar un patrón de forma estática, la abeja recorre visualmente el estímulo, por ejemplo, moviéndose de izquierda a derecha por la parte inferior de una figura.
Este escaneo secuencial permite que las neuronas de la lóbula desarrollen campos receptivos espaciotemporales, afinados a orientaciones y movimientos específicos. Dichas neuronas responden con mayor intensidad a ciertos ángulos y velocidades, lo que les permite codificar información visual de forma compacta y eficiente.
El modelo, enfrentado a abejas reales
La validación del modelo incluyó ponerlo a prueba con los mismos desafíos visuales que enfrentan las abejas en la vida real. En el experimento más emblemático, la red debía distinguir entre el signo “+” y el signo “×”. Al simular el comportamiento real de las abejas —escaneando únicamente la mitad inferior de los patrones—, la tasa de aciertos del modelo se disparó, y llegó a superar el 95% de efectividad.
En cambio, cuando el modelo miraba el patrón entero sin moverse o lo hacía desde lejos, su precisión disminuía notablemente.
Otro aspecto llamativo del estudio es que este aprendizaje se produce sin necesidad de refuerzos externos. Las conexiones sinápticas entre las neuronas se ajustan mediante reglas de plasticidad local, sin necesidad de recompensa o castigo. Este mecanismo de aprendizaje no supervisado permite que la red se adapte al entorno de forma pasiva y energética eficiente, usando solo unas pocas neuronas activas para cada patrón.
Los microcerebros de los insectos son capaces de cálculos avanzados
El profesor Mikko Juusola, experto en Neurociencia de Sistemas en la Universidad de Sheffield, destaca la importancia de este hallazgo: «Este trabajo refuerza la creciente evidencia de que los animales no reciben información pasivamente, sino que la modelan activamente.
Nuestro nuevo modelo extiende este principio al procesamiento visual avanzado en abejas, mostrando cómo el escaneo conductual crea códigos neuronales comprimidos y que se pueden aprender».
El estudio también cuestiona la tradicional asociación entre tamaño cerebral e inteligencia. «Durante mucho tiempo, los científicos se han preguntado si el tamaño del cerebro predice la inteligencia. Pero esa pregunta no tiene sentido sin conocer los cálculos neuronales implicados —afirma el profesor Lars Chittka, de la Queen Mary University of London. Y añade—: Aquí determinamos el número mínimo de neuronas necesarias para tareas visuales complejas, y descubrimos que son sorprendentemente pocas, incluso para reconocer caras humanas. Esto demuestra que los microcerebros de los insectos son capaces de cálculos avanzados».
Red neuronal de visión activa inspirada en la neurobiología y la dinámica de vuelo de las abejas. Cortesía: HaDi MaBouDi et. al
Las implicaciones de este trabajo van más allá del conocimiento de cómo ven las abejas. A medida que la inteligencia artificial busca modelos más eficientes y sostenibles, este tipo de inspiración biológica podría marcar el camino. En lugar de depender de redes neuronales gigantes que consumen enormes cantidades de energía, los investigadores proponen una alternativa basada en eficiencia y movimiento.
«No se trata de tener más neuronas o más potencia computacional , sino de saber cómo interactuar con el entorno para extraer la información que realmente importa», concluye el doctor MaBouDi.
Este nuevo paradigma tiene aplicaciones potenciales en robótica autónoma, especialmente en el diseño de sistemas inteligentes capaces de aprender del entorno con recursos limitados. En un mundo donde los dispositivos deben operar en entornos impredecibles —desde drones en tareas de rescate hasta robots exploradores—, aprender de las abejas puede resultar más útil que nunca.
En definitiva, lo que este estudio demuestra es que el cerebro, por pequeño que sea, puede lograr grandes cosas si se combina con el cuerpo y el entorno de forma adecuada. Las abejas nos enseñan que la inteligencia no está solo en las neuronas, sino también en el movimiento, la exploración y la adaptación constante al mundo que nos rodea.▪️
Fuente: HaDi MaBouDi, Mark Roper, Marie-Geneviève Guiraud, Mikko Juusola, Lars Chittka. James A. R. Marshall. A neuromorphic model of active vision shows how spatiotemporal encoding in lobula neurons can aid pattern recognition in bees. eLife (2025). DOI: https://doi.org/10.7554/eLife.89929