{"id":220240,"date":"2026-03-27T14:08:17","date_gmt":"2026-03-27T13:08:17","guid":{"rendered":"https:\/\/liora.io\/de\/groundedplanbench-v2gp-roboter-aufgabenplanung"},"modified":"2026-03-27T14:08:17","modified_gmt":"2026-03-27T13:08:17","slug":"groundedplanbench-v2gp-roboter-aufgabenplanung","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/groundedplanbench-v2gp-roboter-aufgabenplanung","title":{"rendered":"GroundedPlanBench und V2GP-Framework revolutionieren die Roboter-Aufgabenplanung"},"content":{"rendered":"<p><strong>\nForschende haben ein neues Framework pr\u00e4sentiert, das die Planung und Ausf\u00fchrung komplexer physischer Aufgaben durch Roboter erheblich verbessert, wie heute ver\u00f6ffentlichte Ergebnisse belegen. Das System Video-to-Spatially Grounded Planning (V2GP) \u00fcbertrifft bisherige Methoden, indem es \u00fcbergeordnete Planung und r\u00e4umliches Verst\u00e4ndnis in einem einzigen Modell vereint, anstatt diese Funktionen getrennt zu verarbeiten. Tests mit dem neu entwickelten GroundedPlanBench Benchmark bewiesen, dass der integrierte Ansatz die F\u00e4higkeit von Robotern, mehrstufige Manipulationsaufgaben in realen Umgebungen zu meistern, signifikant steigerte.\n<\/strong><\/p>\n<p>Dieser Durchbruch l\u00f6st eine grundlegende Herausforderung in der Robotik: Maschinen zu bef\u00e4higen, sowohl zu erfassen, was zu tun ist, als auch exakt, wo in un\u00fcbersichtlichen, realen Umgebungen agiert werden muss. Laut dem <b>Microsoft Research Blog<\/b> weisen herk\u00f6mmliche Ans\u00e4tze eine kritische Schwachstelle auf, wenn \u00fcbergeordnete Anweisungen in physische Aktionen \u00fcbertragen werden.<\/p><br><p>G\u00e4ngige robotische Systeme nutzen typischerweise einen zweistufigen Prozess, der zun\u00e4chst textbasierte Pl\u00e4ne wie \u201elege einen L\u00f6ffel auf den wei\u00dfen Teller&#8220; generiert und anschlie\u00dfend versucht, die spezifischen Objekte zu lokalisieren. Dieser <b>entkoppelte Ansatz<\/b> verursacht Mehrdeutigkeitsprobleme. Wenn in einer Szene mehrere \u00e4hnliche Objekte vorhanden sind, f\u00fchren unpr\u00e4zise sprachliche Anweisungen h\u00e4ufig dazu, dass Roboter wiederholt das falsche Objekt ausw\u00e4hlen, was zum Scheitern der Aufgabe f\u00fchrt.<\/p><br><p>Der neue, <b>r\u00e4umlich verortete Planungsansatz<\/b> eliminiert diesen zwischengeschalteten Sprachschritt vollst\u00e4ndig. Anstatt Textanweisungen zu generieren, gibt das System direkt Aktionen zusammen mit pr\u00e4zisen r\u00e4umlichen Koordinaten aus, was es in komplexen Umgebungen wesentlich zuverl\u00e4ssiger macht, berichteten die Forschenden auf der Projektwebsite.<\/p>\n\n<h2 style=\"margin-top:2rem;margin-bottom:1rem;\">Leistungsdurchbruch<\/h2><figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"572\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-1024x572.jpg\" alt=\"Tabelle zum Vergleich der Leistung verschiedener Methoden beim Robot Task Planning, die Prozents\u00e4tze f\u00fcr Task Success und Action Accuracy darstellt.\" class=\"wp-image-220237\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-56x56.jpg 56w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-115x64.jpg 115w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-150x150.jpg 150w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-210x117.jpg 210w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-300x167.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-410x270.jpg 410w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-440x246.jpg 440w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-448x448.jpg 448w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-587x510.jpg 587w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-768x429.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-785x438.jpg 785w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-1024x572.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-1250x590.jpg 1250w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-1440x680.jpg 1440w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-1536x857.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-2048x1143.jpg 2048w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/leistungsvergleich-roboter-aufgabenplanung-scaled.jpg 2560w\" sizes=\"(max-width: 1024px) 100vw, 1024px\"><\/figure>\n\n<p>Untersuchungen offenbarten gravierende Leistungsunterschiede zwischen den Ans\u00e4tzen. Auf dem <b>GroundedPlanBench<\/b> erreichten hochmoderne Modelle wie <b><a href=\"https:\/\/liora.io\/de\/open-ai-chatgpt-gpt-4-ist-da\">GPT-4V<\/a><\/b> laut den Forschungsergebnissen bei Aufgaben, die f\u00fcnf bis acht Aktionen erfordern, lediglich eine <b>Erfolgsquote von 1,2%<\/b>. Selbst in Kombination mit spezialisierten Modellen zur Raumerfassung verbesserte sich die Leistung kaum auf <b>3,4%<\/b>.<\/p><br><p>Im Gegensatz dazu erzielten mit dem V2GP Framework trainierte Modelle bei denselben komplexen Aufgaben <b>20,5% im Aufgabenerfolg<\/b> und <b>46,7% an Aktionsgenauigkeit<\/b>, was einer sechsfachen Verbesserung gegen\u00fcber bisherigen Methoden entspricht.<\/p><br><p>Die Validierung in der realen Welt mit einem <b>Franka Research 3<\/b> Roboterarm zeigte noch deutlichere Unterschiede. Der raumbezogene Planer schloss Testaufgaben in <b>vier von f\u00fcnf Versuchen<\/b> erfolgreich ab, w\u00e4hrend der traditionelle entkoppelte Ansatz jedes Mal scheiterte, vor allem aufgrund von Fehlern der Raumerfassung.<\/p>\n\n<h2 style=\"margin-top:2rem;margin-bottom:1rem;\">Auswirkungen auf die Industrie<\/h2>\n\n<p>Die Entwicklung k\u00f6nnte die Integration von Robotern in Lagerh\u00e4usern, der Fertigung und Dienstleistungsbranchen beschleunigen, in denen Maschinen sich in unvorhersehbaren Umgebungen zurechtfinden m\u00fcssen. Die Forschenden r\u00e4umen jedoch gegenw\u00e4rtige Einschr\u00e4nkungen ein und weisen darauf hin, dass der verwendete Benchmark-Datensatz und die trainierten Modelle noch nicht \u00f6ffentlich verf\u00fcgbar sind.<\/p><br><p>Laut dem Microsoft Research Blog wird sich die zuk\u00fcnftige Entwicklung auf die Integration von <b><a href=\"https:\/\/liora.io\/de\/ami-labs-revolutioniert-ki-world-models\">umfassenden Weltmodellen<\/a><\/b> konzentrieren, die es Robotern erm\u00f6glichen, Aktionsfolgen vor der Ausf\u00fchrung vorherzusagen, was potenziell vorausschauendere Systeme schafft, die in physischen R\u00e4umen \u00fcber Ursache und Wirkung schlussfolgern k\u00f6nnen.<\/p>\n<div style=\"margin-top:3rem;padding-top:1.5rem;border-top:1px solid #e2e4ea;\">\n  <h3 style=\"margin:0 0 0.75rem;font-size:1.1rem;letter-spacing:0.08em;text-transform:uppercase;\">\n    Sources\n  <\/h3>\n  <ul style=\"margin:0;padding-left:1.2rem;list-style:disc;\">\n    <li>microsoft.com\/en-us\/research\/blog<\/li><li>groundedplanning.github.io<\/li>\n  <\/ul>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Forscher haben ein neues Framework pr\u00e4sentiert, das die Art und Weise, wie Roboter komplexe physische Aufgaben planen und ausf\u00fchren, erheblich verbessert, wie aus heute ver\u00f6ffentlichten Ergebnissen hervorgeht. Das Video-to-Spatially Grounded Planning (V2GP) System \u00fcbertraf etablierte Methoden, indem es High-Level Planning mit r\u00e4umlichem Verst\u00e4ndnis in einem einzigen Modell vereinte, anstatt diese Funktionen getrennt zu verarbeiten. Tests mit dem neu entwickelten GroundedPlanBench Benchmark zeigten, dass der integrierte Ansatz die F\u00e4higkeit von Robotern, mehrschrittige Manipulationsaufgaben in realen Umgebungen zu bew\u00e4ltigen, signifikant erh\u00f6hte.<\/p>\n","protected":false},"author":87,"featured_media":220238,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2475],"class_list":["post-220240","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-nachrichten"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/220240","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=220240"}],"version-history":[{"count":0,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/220240\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/220238"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=220240"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=220240"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}