Google DeepMind heeft nieuwe AI-modellen gelanceerd die robots slimmer maken. De op Gemini 2.0 gebaseerde technologie stelt robots in staat complexe taken uit te voeren door beter te reageren op hun omgeving en natuurlijke taalcommando's te begrijpen.
Google DeepMind introduceert twee speciale AI-modellen die robots naar een hoger niveau moeten tillen. Het eerste model, Gemini Robotics, wordt omschreven als een 'vision-language-action' model dat fysieke acties toevoegt aan de bestaande Gemini-technologie, waardoor robots beter aangestuurd kunnen worden.
Daarnaast is er Gemini Robotics-ER, een variant met verbeterd ruimtelijk inzicht. Deze technologie stelt robots in staat om hun omgeving beter te begrijpen en zich aan te passen aan veranderingen tijdens het uitvoeren van taken.
De nieuwe AI-modellen verbeteren de praktische inzetbaarheid van robots aanzienlijk. Ze kunnen nu opdrachten begrijpen, hun omgeving in de gaten houden en reageren op veranderingen. In een demonstratievideo is te zien hoe een robot verschillende soorten fruit in bakjes sorteert, zelfs wanneer deze bakjes voortdurend worden verplaatst.
Deze adaptieve capaciteit maakt robots flexibeler en bruikbaarder in dynamische omgevingen waar objecten en situaties constant veranderen - een cruciale eigenschap voor robots die in de echte wereld moeten functioneren.
Google DeepMind werkt samen met Apptronik aan de ontwikkeling van humanoïde robots die van deze AI-technologie gebruik maken. De nieuwe Gemini-modellen worden echter ook beschikbaar gesteld aan andere toonaangevende bedrijven in de robotica-industrie, waaronder Boston Dynamics, Agility Robots en Agile Robots.
Deze brede beschikbaarheid kan leiden tot een versnelde ontwikkeling van intelligentere robots voor diverse toepassingen, van industriële automatisering tot huishoudelijke assistentie en zorgverlening.
Met de integratie van geavanceerde AI-modellen zoals Gemini in robots, zet Google een belangrijke stap in de richting van machines die beter kunnen samenwerken met mensen. De combinatie van natuurlijke taalverwerking, visuele herkenning en fysieke handelingsbekwaamheid opent nieuwe mogelijkheden voor de inzet van robots in het dagelijks leven.