Google DeepMind har nyligen lanserat två avancerade AI-modeller, Gemini Robotics och Gemini Robotics-ER, med målet att förbättra robotars förmåga att utföra komplexa uppgifter i verkliga miljöer.
Avancerade AI-modeller för robotik
Gemini Robotics bygger på den kraftfulla Gemini 2.0-modellen och integrerar språk, syn och fysisk handling för att möjliggöra för robotar att utföra komplexa uppgifter. Demonstrationer har visat hur robotar kan vika papper och hantera objekt baserat på muntliga kommandon. Denna modell är anpassningsbar över olika hårdvaruplattformar och är tillgänglig för andra forskare att utveckla sina egna robotkapaciteter.
Gemini Robotics-ER fokuserar på avancerad visuell och rumslig förståelse för inkarnerat resonemang, vilket möjliggör för robotar att utföra komplexa resonemangsuppgifter, såsom att packa en lunchlåda effektivt.
Samarbeten och framtida tillämpningar
Google DeepMind samarbetar med företag som Apptronik för att bygga humanoida robotar som drar nytta av dessa AI-framsteg. Dessa modeller stöder olika typer av robotar, inklusive industriella humanoider, och kan hjälpa startups att minska kostnader och påskynda marknadsintroduktion.
Säkerhet och framtida utmaningar
Trots dessa framsteg finns det oro kring risker och säkerhet hos AI-drivna robotar. Google DeepMind har därför introducerat ett nytt riktmärke kallat ASIMOV för att identifiera potentiellt farliga beteenden. Arbetet är i ett tidigt skede, och det finns inga omedelbara planer för kommersialisering.
Denna utveckling markerar en betydande vändpunkt inom AI och robotik, med potential att påverka industrier som tillverkning och sjukvård. Experter erkänner de imponerande resultaten men noterar att mycket arbete återstår innan sådana robotar blir allmänt adopterade.