Google lanzó una función de IA revolucionaria en febrero de 2026 que permite a su asistente Gemini controlar de forma autónoma aplicaciones de terceros en teléfonos Android, completando tareas complejas como pedir comida o reservar viajes sin intervención del usuario. La nueva capacidad de «automatización de tareas», impulsada por el modelo Gemini 3, se presentó como una vista previa inicial en los dispositivos Pixel 10 y Samsung Galaxy S26, marcando un cambio fundamental en la forma en que los usuarios interactúan con sus teléfonos inteligentes.
La función opera mediante comandos de voz simples como «Pídeme un Uber al Palacio de Bellas Artes», lo que lleva a Gemini a iniciar la aplicación relevante en una ventana virtual y ejecutar la solicitud de forma autónoma, según The Verge. Los usuarios mantienen el control total durante todo el proceso, observando cómo se desarrolla la automatización en tiempo real y conservando la capacidad de intervenir en cualquier momento.
Cuando la IA encuentra ambigüedades, como un artículo del menú agotado, se pausa para solicitar la entrada del usuario antes de continuar. Lo más importante es que, si bien Gemini puede preparar pedidos o reservas de viajes hasta el paso final, requiere la confirmación explícita del usuario antes de enviar solicitudes o autorizar pagos, informó The Verge.
La vista previa inicial se lanzó exclusivamente en Estados Unidos y Corea, disponible solo en la serie Pixel 10 de Google y los dispositivos Galaxy S26 de Samsung.
Arquitectura técnica y visión de la industria
El sistema emplea lo que el presidente del ecosistema Android, Sameer Samat, describió a The Verge como una «serie de pilas tecnológicas» para interactuar con las aplicaciones. Esto incluye aprovechar los marcos de desarrolladores oficiales cuando están disponibles, pero lo más significativo es que la IA puede navegar de forma autónoma por aplicaciones desconocidas analizando visualmente sus interfaces.
Cuando no existe una integración formal, Gemini puede «averiguarlo por sí mismo», dijo Samat a The Verge, identificando e interactuando con elementos en pantalla como botones y campos de texto para completar tareas de forma independiente.
Esta capacidad representa una reinvención fundamental de Android 17 como un «sistema de inteligencia» en lugar de simplemente una plataforma para ejecutar aplicaciones, según los comentarios de Samat a The Verge. Su afirmación de que «Esta tecnología está sucediendo» señala la determinación de Google de liderar esta transformación, esperando que los desarrolladores se adapten al nuevo paradigma impulsado por la IA.
El desarrollo posiciona a Google por delante de sus competidores, particularmente Apple, que no ha anunciado capacidades comparables para Siri hasta febrero de 2026. Samsung, como socio de lanzamiento, está siguiendo una estrategia híbrida al integrar la IA agéntica de Google mientras continúa desarrollando su propio asistente Bixby.
Las implicaciones más amplias para el ecosistema móvil son significativas. Al posicionar a Gemini como intermediario entre usuarios y aplicaciones, Google reduce potencialmente las oportunidades de participación directa para empresas como Uber y DoorDash, limitando su capacidad para presentar programas de fidelización, promociones o marcas únicas durante las interacciones, señaló The Verge.
Sources
- The Verge

