IA se autoorganiza y adquiere características cerebrales de organismos complejos ~ Bloghemia IA se autoorganiza y adquiere características cerebrales de organismos complejos

IA se autoorganiza y adquiere características cerebrales de organismos complejos





Leonardo AI/Bloghemia






En un estudio publicado hoy en Nature Machine Intelligence, Achterberg, Akarca y sus colegas crearon un sistema artificial destinado a modelar una versión muy simplificada de el cerebro y las limitaciones físicas aplicadas. Descubrieron que su sistema desarrolló ciertas características y tácticas clave similares a las que se encuentran en los cerebros humanos..                           




  Los científicos han demostrado que imponer restricciones físicas a un sistema artificialmente inteligente (de manera muy similar a como el cerebro humano tiene que desarrollarse y operar dentro de restricciones físicas y biológicas) le permite desarrollar características del cerebro de organismos complejos para poder resolver tareas.




 

 

A medida que los sistemas neuronales, como el cerebro, se organizan y establecen conexiones, tienen que equilibrar las demandas en competencia. Por ejemplo, se necesitan energía y recursos para hacer crecer y sostener la red en el espacio físico y, al mismo tiempo, optimizar la red para el procesamiento de información. Esta compensación da forma a todos los cerebros dentro y entre especies, lo que puede ayudar a explicar por qué muchos cerebros convergen en soluciones organizativas similares.

Jascha Achterberg, becario Gates de la Unidad de Ciencias del Cerebro y Cognición del Consejo de Investigación Médica (MRC CBSU) de la Universidad de Cambridge, dijo: "El cerebro no sólo es excelente para resolver problemas complejos, sino que lo hace usando muy poca energía". En nuestro nuevo trabajo demostramos que considerar las capacidades del cerebro para resolver problemas junto con su objetivo de gastar la menor cantidad de recursos posible puede ayudarnos a comprender por qué los cerebros tienen el aspecto que tienen".

El coautor principal, el Dr. Danyal Akarca, también del MRC CBSU, añadió: "Esto se deriva de un principio amplio, que es que los sistemas biológicos comúnmente evolucionan para aprovechar al máximo los recursos energéticos que tienen a su disposición". Las soluciones a las que llegan son a menudo muy elegantes y reflejan las compensaciones entre las diversas fuerzas que se les imponen”.

En un estudio publicado hoy en Nature Machine Intelligence, Achterberg, Akarca y sus colegas crearon un sistema artificial destinado a modelar una versión muy simplificada de el cerebro y las limitaciones físicas aplicadas. Descubrieron que su sistema desarrolló ciertas características y tácticas clave similares a las que se encuentran en los cerebros humanos.

En lugar de neuronas reales, el sistema utilizó nodos computacionales. Las neuronas y los nodos tienen una función similar, en el sentido de que cada uno toma una entrada, la transforma y produce una salida, y un solo nodo o neurona puede conectarse a varios otros, todos ingresando información para ser calculada.

En su sistema, sin embargo, los investigadores aplicaron un método 'físico' restricción sobre el sistema. A cada nodo se le asignó una ubicación específica en un espacio virtual, y cuanto más lejos estaban dos nodos, más difícil les resultaba comunicarse. Esto es similar a cómo se organizan las neuronas del cerebro humano.

Los investigadores le dieron al sistema una tarea sencilla de completar: en este caso, una versión simplificada de una tarea de navegación en laberintos que normalmente se les da a animales como ratas y macacos cuando estudian el cerebro, donde tiene que combinar múltiples piezas de información para decidir el camino y ruta más corta para llegar al punto final.

Una de las razones por las que el equipo eligió esta tarea en particular es porque para completarla, el sistema necesita mantener una serie de elementos (ubicación inicial, ubicación final y pasos intermedios) y una vez que ha aprendido a realizar la tarea de manera confiable, es Es posible observar, en diferentes momentos de un ensayo, qué nodos son importantes. Por ejemplo, un grupo particular de nodos puede codificar las ubicaciones de llegada, mientras que otros codifican las rutas disponibles, y es posible rastrear qué nodos están activos en diferentes etapas de la tarea.

Inicialmente, el sistema no sabe cómo completar la tarea y comete errores. Pero cuando recibe retroalimentación, aprende gradualmente a mejorar en la tarea. Aprende cambiando la fuerza de las conexiones entre sus nodos, de manera similar a cómo cambia la fuerza de las conexiones entre las células cerebrales a medida que aprendemos. Luego, el sistema repite la tarea una y otra vez, hasta que finalmente aprende a realizarla correctamente.

Sin embargo, con su sistema, la restricción física significaba que cuanto más lejos estaban dos nodos, más difícil era construir una conexión entre los dos nodos en respuesta a la retroalimentación. En el cerebro humano, las conexiones que abarcan una gran distancia física son costosas de formar y mantener.

Cuando se le pidió al sistema que realizara la tarea bajo estas restricciones, utilizó algunos de los mismos trucos utilizados por los cerebros humanos reales para resolver la tarea. Por ejemplo, para sortear las limitaciones, los sistemas artificiales comenzaron a desarrollar centros: nodos altamente conectados que actúan como conductos para pasar información a través de la red.

Sin embargo, lo más sorprendente fue que los perfiles de respuesta de los nodos individuales comenzaron a cambiar: en otras palabras, en lugar de tener un sistema donde cada nodo codifica una propiedad particular de la tarea del laberinto, como la ubicación del objetivo o En la siguiente opción, los nodos desarrollaron un esquema de codificación flexible. Esto significa que en diferentes momentos los nodos pueden estar activando una combinación de las propiedades del laberinto. Por ejemplo, el mismo nodo podría codificar múltiples ubicaciones de un laberinto, en lugar de necesitar nodos especializados para codificar ubicaciones específicas. Esta es otra característica que se observa en los cerebros de organismos complejos.

El coautor, el profesor Duncan Astle, del Departamento de Psiquiatría de Cambridge, dijo: "Esta simple restricción (es más difícil cablear nodos que están muy separados) obliga a los sistemas artificiales a producir algunas características bastante complicadas". . Curiosamente, son características que comparten sistemas biológicos como el cerebro humano. Creo que eso nos dice algo fundamental sobre por qué nuestros cerebros están organizados como están”.

Entendiendo el cerebro humano

El equipo tiene la esperanza de que su sistema de inteligencia artificial pueda comenzar a arrojar luz sobre cómo estas limitaciones dan forma a las diferencias entre los cerebros de las personas y contribuyen a las diferencias observadas en aquellos que experimentan dificultades cognitivas o de salud mental.

El coautor, el profesor John Duncan del MRC CBSU, dijo: "Estos cerebros artificiales nos brindan una manera de comprender los datos ricos y desconcertantes que vemos cuando la actividad de las neuronas reales se registra en cerebros reales".

Achterberg añadió: "Los 'cerebros' artificiales" Permítanos hacer preguntas que serían imposibles de abordar en un sistema biológico real. Podemos entrenar el sistema para que realice tareas y luego jugar experimentalmente con las restricciones que imponemos, para ver si comienza a parecerse más al cerebro de individuos concretos”.

Implicaciones para el diseño de futuros sistemas de IA

Es probable que los hallazgos también sean de interés para la comunidad de IA, ya que podrían permitir el desarrollo de sistemas más eficientes, particularmente en situaciones donde es probable que existan limitaciones físicas.

El Dr. Akarca dijo: "Los investigadores de IA están constantemente tratando de descubrir cómo crear sistemas neuronales complejos que puedan codificar y funcionar de una manera flexible y eficiente". Para lograrlo, creemos que la neurobiología nos dará mucha inspiración. Por ejemplo, el costo total de cableado del sistema que hemos creado es mucho menor que el que se encontraría en un sistema de IA típico”.

Muchas soluciones modernas de IA implican el uso de arquitecturas que sólo superficialmente se parecen a un cerebro. Los investigadores dicen que sus trabajos muestran que el tipo de problema que la IA esté resolviendo influirá en qué arquitectura será la más potente de usar.

Achterberg dijo: "Si se quiere construir un sistema con inteligencia artificial que resuelva problemas similares a los de los humanos, en última instancia el sistema terminará pareciéndose mucho más a un cerebro real que los sistemas que se ejecutan en grandes grupos de computación que se especializan en tareas muy diferentes a las de los humanos". los realizados por humanos. La arquitectura y estructura que vemos en nuestro 'cerebro' artificial; está ahí porque es beneficioso para manejar los desafíos específicos similares al cerebro que enfrenta".

Esto significa que los robots que tienen que procesar una gran cantidad de información en constante cambio con recursos energéticos finitos podrían beneficiarse de tener estructuras cerebrales no muy diferentes a las nuestras.

Achterberg añadió: "Los cerebros de los robots que se implementan en el mundo físico real probablemente se parecerán más a los nuestros porque podrían enfrentar los mismos desafíos que nosotros". Necesitan procesar constantemente la nueva información que llega a través de sus sensores mientras controlan sus cuerpos para moverse por el espacio hacia una meta. Muchos sistemas necesitarán ejecutar todos sus cálculos con un suministro limitado de energía eléctrica y, por lo tanto, para equilibrar estas limitaciones energéticas con la cantidad de información que necesita procesar, probablemente necesitarán una estructura cerebral similar a la nuestra".

La investigación fue financiada por el Consejo de Investigación Médica, Gates Cambridge, la Fundación James McDonnell, la Fundación Templeton World Charity y Google DeepMind.

Fuente de la investigación: 

Jascha Achterberg, Danyal Akarca, D. J. Strouse, John Duncan, Duncan E. Astle. Las redes neuronales recurrentes integradas espacialmente revelan vínculos generalizados entre los hallazgos de la neurociencia estructural y funcional. Inteligencia de la máquina natural, 2023; DOI: 10.1038/s42256-023-00748-9


Suscribete a nuestro canal  en Youtube






Artículo Anterior Artículo Siguiente