HIX AI
Bryder sammen
Enkel
Hjem > Opdage > Google DeepMind afslører, hvordan robotter tilpasser sig og lærer miljø ved hjælp af Gemini AI

Google DeepMind afslører, hvordan robotter tilpasser sig og lærer miljø ved hjælp af Gemini AI

Skrevet af
ArticleGPT

Gennemgået og faktatjekket af HIX.AI-teamet

2 min læstJul 12, 2024
Google DeepMind afslører, hvordan robotter tilpasser sig og lærer miljø ved hjælp af Gemini AI

I en nøddeskal

DeepMind bruger videoture og Gemini 1.5 Pro til at træne robotter til navigation og opgaveafslutning.

Google DeepMinds robotteam har for nylig offentliggjort et forskningspapir, der viser, hvordan de lærer Google RT-2-robotter at lære og tilpasse sig deres miljø ved hjælp af Gemini AI.

I stedet for udelukkende at stole på traditionelle programmeringsmetoder, bruger teamet videoer til at træne robotterne, så de kan lære på en måde, der ligner menneskelige praktikanter. Ved at optage videorundvisninger af udpegede områder, såsom boliger eller kontorer, kan robotterne se og absorbere information om deres omgivelser.

Google robotter Naviger med Gemini AI

Modellens funktionalitet giver mulighed for verbale og visuelle output, hvilket gør robotterne i stand til at udføre opgaver baseret på deres eksisterende viden, og viser potentialet for robotter til at interagere med deres omgivelser på måder, der ligner menneskelig adfærd.

I praktiske test er der et stort område på 9.000 kvadratmeter til at betjene de Gemini -drevne robotter, og det viser sig, at robotterne med succes kan følge over 50 forskellige brugerinstruktioner med en succesrate på 90 procent .

Dette høje niveau af nøjagtighed åbner op for adskillige applikationer fra den virkelige verden til AI-drevne robotter, herunder at hjælpe med huslige pligter eller udføre mere komplekse opgaver på arbejdspladsen.

Robotterne er udstyret med Gemini 1.5 Pro generative AI-model, som muliggør et langt kontekstvindue. Dette giver AI mulighed for at multi-taske og behandle information effektivt, hvilket gør det muligt for robotterne at lære om deres miljø i detaljer.

For eksempel, hvis en bruger spørger, om en bestemt drik er tilgængelig, kan robotten navigere til køleskabet, visuelt vurdere dets indhold og derefter give et svar baseret på disse oplysninger. Dette niveau af forståelse og udførelse repræsenterer et betydeligt fremskridt i AI-drevne robotters muligheder.

På trods af de lovende resultater opnået med Gemini 1.5 Pro, er der stadig udfordringer at overvinde. Robotterne tager i øjeblikket mellem 10 til 30 sekunder at behandle hver instruktion, hvilket er langsommere sammenlignet med menneskelig henrettelse i de fleste tilfælde.

Derudover udgør kompleksiteten og uforudsigeligheden i virkelige miljøer udfordringer for robotternes navigationsevner.

Selvom de Gemini -drevne robotter endnu ikke er klar til massekommercialisering, er deres potentielle indvirkning på tværs af forskellige industrier lovende. Ved at integrere AI-modeller som Gemini 1.5 Pro i robotteknologi kan sektorer som sundhedspleje, skibsfart og vicevært omdannes.

Baseret på 3 søgekilder

3 kilder

Google's AI robots are learning from watching movies – just like the rest of us

Google DeepMind's robotics team is teaching robots to learn how a human intern would: by watching a video.

Google says Gemini AI is making its robots smarter

DeepMind is using video tours and Gemini 1.5 Pro to train robots to navigate and complete tasks.

Google is using GeminiAI to make its robots smarter and better, here’s how

Google is empowering the robots to be more flexible and adaptable by remembering and understanding their environment, thanks to Gemini 1.5 Pro model

På denne side

  • Google robotter Naviger med Gemini AI