Eine Person nutzt ein Smartphone in einem Büro von Google, wobei das Google-Logo im Hintergrund zu sehen ist und eine kollaborative Arbeitsatmosphäre herrscht.

Googles Gemini: Neue KI-Agenten verändern die Arbeit für immer

Google führte im Februar 2026 eine bahnbrechende KI-Funktion ein, die es seinem Gemini-Assistenten ermöglicht, Drittanbieter-Apps auf Android-Smartphones autonom zu steuern und komplexe Aufgaben wie das Bestellen von Essen oder das Buchen von Fahrten ohne Eingreifen des Nutzers abzuschließen. Die neue „Task-Automation“-Fähigkeit, angetrieben vom Gemini 3-Modell, wurde als frühe Vorschau auf den Geräten Pixel 10 und Samsung Galaxy S26 vorgestellt und markiert einen grundlegenden Wandel in der Art und Weise, wie Nutzer mit ihren Smartphones interagieren.

Das Feature agiert über einfache Sprachbefehle wie „Bestell mir ein Uber zum Palace of Fine Arts“, woraufhin Gemini die entsprechende App in einem virtuellen Fenster öffnet und die Anfrage autonom ausführt, so The Verge. Die Nutzer behalten während des gesamten Prozesses die volle Kontrolle, verfolgen die Automatisierung in Echtzeit und wahren die Fähigkeit, jederzeit einzugreifen.

Stößt die KI auf Unklarheiten, wie etwa einen ausverkauften Menüpunkt, pausiert sie, um eine Nutzereingabe anzufordern, bevor sie fortfährt. Entscheidend ist laut The Verge, dass Gemini zwar Bestellungen oder Fahrten bis zum letzten Schritt vorbereiten kann, jedoch eine explizite Bestätigung des Nutzers erforderlich ist, bevor Anfragen abgesendet oder Zahlungen autorisiert werden.

Die frühe Vorschau startete exklusiv in den Vereinigten Staaten sowie Korea und war lediglich auf Googles Pixel 10-Serie und Samsungs Galaxy S26-Geräten verfügbar.

Technische Architektur und Branchenvision

Das System nutzt das, was Android-Ökosystem-Präsident Sameer Samat gegenüber The Verge als eine „Reihe von Technologie-Stacks“ beschreibt, um mit Anwendungen zu interagieren. Dies umfasst die Nutzung offizieller Entwickler-Frameworks, wo verfügbar; noch bedeutender ist jedoch, dass die KI eigenständig durch unbekannte Apps navigieren kann, indem sie deren Oberflächen visuell interpretiert.

Existiert keine formale Integration, kann Gemini die Lösung „selbst herausfinden“, so Samat zu The Verge, indem es Bildschirmelemente wie Buttons und Textfelder identifiziert und mit ihnen interagiert, um Aufgaben eigenständig abzuschließen.

Diese Fähigkeit repräsentiert laut Samats Aussagen gegenüber The Verge eine grundlegende Neugestaltung von Android 17 als „Intelligenzsystem“ und nicht mehr nur als Plattform zum Ausführen von Anwendungen. Seine Aussage, dass „diese Technologie Realität wird“, unterstreicht Googles Entschlossenheit, diese Transformation voranzutreiben, und die Erwartung an Entwickler, sich dem neuen KI-getriebenen Paradigma anzupassen.

Diese Entwicklung positioniert Google gegen Wettbewerber, insbesondere Apple, die bis Februar 2026 keine vergleichbaren Fähigkeiten für Siri angekündigt hatten. Als Launch-Partner verfolgt Samsung eine Hybridstrategie, indem es Googles agentische KI integriert, während es gleichzeitig seinen eigenen Bixby-Assistenten weiterentwickelt.

Die breiteren Auswirkungen auf das mobile Ökosystem sind erheblich. Indem Gemini als Vermittler zwischen Nutzern und Apps positioniert wird, reduziert Google potenziell die direkten Interaktionsmöglichkeiten für Unternehmen wie Uber und DoorDash. Dies schränkt laut The Verge deren Fähigkeit ein, während der Interaktionen Treueprogramme, Werbeaktionen oder einzigartige Markenpräsentationen anzuzeigen.

Sources

  • The Verge