HIX AI
Colapsar
Simple
Hogar > Descubrir > DeepMind de Google revela cómo los robots se adaptan y aprenden el entorno utilizando Gemini AI

DeepMind de Google revela cómo los robots se adaptan y aprenden el entorno utilizando Gemini AI

Escrito por
ArticleGPT

Revisado y verificado por el Equipo HIX.AI

2 minutos de lecturaJul 12, 2024
DeepMind de Google revela cómo los robots se adaptan y aprenden el entorno utilizando Gemini AI

En una palabra

DeepMind emplea recorridos en vídeo y Gemini 1.5 Pro para entrenar robots para la navegación y la realización de tareas.

El equipo de robótica de Google DeepMind publicó recientemente un artículo de investigación que muestra cómo están enseñando a los robots RT-2 de Google a aprender y adaptarse a su entorno utilizando Gemini AI.

En lugar de depender únicamente de métodos de programación tradicionales, el equipo está utilizando vídeos para entrenar a los robots, permitiéndoles aprender de una manera similar a los pasantes humanos. Al grabar recorridos en vídeo de áreas designadas, como casas u oficinas, los robots pueden observar y absorber información sobre su entorno.

Los robots de Google navegan con Gemini AI

La funcionalidad del modelo permite resultados verbales y visuales, lo que permite a los robots realizar tareas basadas en su conocimiento existente, y muestra el potencial de los robots para interactuar con su entorno de maneras que se asemejan al comportamiento humano.

En pruebas prácticas, hay una vasta área de 9,000 pies cuadrados para operar los robots impulsados por Gemini , y resulta que los robots pueden seguir con éxito más de 50 instrucciones de usuario diferentes con una tasa de éxito del 90 por ciento .

Este alto nivel de precisión abre numerosas aplicaciones del mundo real para robots impulsados por IA, incluida la ayuda con las tareas domésticas o la realización de tareas más complejas en el lugar de trabajo.

Los robots están equipados con el modelo de IA generativa Gemini 1.5 Pro, que permite una ventana de contexto larga. Esto permite que la IA realice múltiples tareas y procese información de manera eficiente, lo que permite a los robots aprender sobre su entorno en detalle.

Por ejemplo, si un usuario pregunta si una bebida específica está disponible, el robot puede navegar hasta el refrigerador, evaluar visualmente su contenido y luego brindar una respuesta basada en esa información. Este nivel de comprensión y ejecución representa un avance significativo en las capacidades de los robots impulsados por IA.

A pesar de los prometedores resultados obtenidos con Gemini 1.5 Pro, todavía quedan desafíos por superar. Actualmente, los robots tardan entre 10 y 30 segundos en procesar cada instrucción, lo que es más lento en comparación con la ejecución humana en la mayoría de los casos.

Además, las complejidades y la imprevisibilidad de los entornos del mundo real plantean desafíos para las capacidades de navegación de los robots.

Aunque los robots impulsados por Gemini aún no están listos para su comercialización masiva, su impacto potencial en diversas industrias es prometedor. Al integrar modelos de inteligencia artificial como Gemini 1.5 Pro en la robótica, se pueden transformar sectores como la atención médica, el transporte marítimo y las tareas de limpieza.

Basado en 3 fuentes de búsqueda

3 fuentes

Google's AI robots are learning from watching movies – just like the rest of us

Google DeepMind's robotics team is teaching robots to learn how a human intern would: by watching a video.

Google says Gemini AI is making its robots smarter

DeepMind is using video tours and Gemini 1.5 Pro to train robots to navigate and complete tasks.

Google is using GeminiAI to make its robots smarter and better, here’s how

Google is empowering the robots to be more flexible and adaptable by remembering and understanding their environment, thanks to Gemini 1.5 Pro model

En esta página

  • Los robots de Google navegan con Gemini AI