Los ingenieros de la Universidad de Purdue han descubierto que un vehículo autónomo (AV) puede hacerlo con la ayuda de ChatGPT u otros chatbots hecho posible por algoritmos de inteligencia artificial llamados grandes modelos de lenguaje.
El estudio, que se presentará en septiembre 25 en la 27a Conferencia Internacional IEEE sobre Sistemas de Transporte Inteligente, puede ser uno de los primeros experimentos que prueban lo bien que un AV real puede utilizar grandes modelos de lenguaje para interpretar comandos de un pasajero y conducir en consecuencia.
Ziran Wang, profesor asistente en la Escuela Lyles de Ingeniería Civil y de Construcción de Purdue, lideró un estudio en el que sugiere que para que los vehículos autónomos (AV) sean completamente operativos en el futuro, deberán entender incluso los comandos implícitos de sus pasajeros. A modo de ejemplo, un taxista humano puede interpretar que tienes prisa sin que necesites detallar la ruta, algo que los AV aún no logran con tanta naturalidad.
Aunque los vehículos actuales permiten comunicación con los pasajeros, requieren instrucciones más explícitas que las que se darían a un humano. Sin embargo, los grandes modelos de lenguaje, entrenados con vastas cantidades de datos textuales, son capaces de interpretar comandos de manera más natural. Según Wang, estos modelos pueden captar y procesar información de manera más intuitiva que otros sistemas actuales.
En el estudio, los grandes modelos de lenguaje no conducían el vehículo, sino que ayudaban en su manejo utilizando sus funciones existentes. Wang y su equipo entrenaron a ChatGPT con diferentes tipos de comandos, desde los más directos hasta otros más implícitos, y adaptaron los modelos para considerar factores como las reglas de tráfico y las condiciones del entorno. Estos modelos estaban conectados a un vehículo experimental de nivel cuatro de autonomía y transmitían instrucciones al sistema del vehículo para ajustar su comportamiento según los comandos de los pasajeros.
Además, el equipo de Wang instaló un módulo de memoria que permitió a los modelos recordar las preferencias de los pasajeros, mejorando la personalización de la experiencia de conducción. Las pruebas se realizaron en un campo de pruebas y en un estacionamiento, y los resultados mostraron que los participantes se sintieron más cómodos y menos incómodos durante sus viajes, en comparación con los datos previos sobre vehículos autónomos sin asistencia de grandes modelos de lenguaje. El AV también superó los valores estándar de seguridad y confort, incluso ante comandos no previamente aprendidos.
Los grandes modelos de lenguaje en este estudio tardaron en promedio 1.6 segundos en procesar un comando de un pasajero, lo cual es aceptable en situaciones no críticas, pero necesita mejorarse para escenarios en los que el AV debe responder rápidamente, según Wang. Este es un desafío común en estos modelos, y tanto la industria como investigadores universitarios están trabajando para resolverlo.
Aunque no fue el foco principal del estudio, es conocido que modelos como ChatGPT pueden "alucinar", es decir, malinterpretar información y responder incorrectamente. El estudio de Wang se realizó en un entorno seguro, donde los participantes pudieron viajar con seguridad incluso cuando los modelos malentendieron comandos. Si bien la comprensión de los modelos mejoró durante el viaje de cada participante, la alucinación sigue siendo un reto a resolver antes de que los fabricantes de vehículos puedan considerar implementar estos modelos en AVs.
Además, será necesario realizar más pruebas y obtener la aprobación regulatoria para integrar estos modelos con los controles del vehículo y permitir que realmente conduzcan el AV, según Wang. Mientras tanto, su equipo sigue experimentando para ayudar a la industria a explorar esta posibilidad.
Desde su estudio con ChatGPT, los investigadores han probado otros chatbots basados en grandes modelos de lenguaje, como la serie Llama AI de Google. Hasta el momento, ChatGPT ha mostrado el mejor rendimiento en términos de seguridad y eficiencia en un viaje en AV. También planean explorar la posibilidad de que los modelos de lenguaje de diferentes AVs se comuniquen entre sí, como en una intersección de cuatro vías. Además, el equipo de Wang está comenzando un proyecto para utilizar grandes modelos de visión, que se entrenan con imágenes en lugar de texto, para mejorar la conducción en condiciones climáticas invernales en el Medio Oeste.
Este proyecto cuenta con el apoyo del Centro de Transporte Conectado y Automatizado (CCAT) y es financiado por el Departamento de Transporte de EE. UU.
Fuente y enlace a la investigaciòn:
- Universidad de Purdue. "Los vehículos autónomos podrían entender mejor a sus pasajeros con ChatGPT"