El asistente de Google ha dado un salto que cambia por completo la relación con el smartphone: Gemini ya no solo responde preguntas, ahora es capaz de controlar el móvil y ejecutar tareas complejas por su cuenta. La compañía lo presenta como un agente que se mueve entre aplicaciones, ajusta opciones del sistema y completa procesos largos mientras el usuario sigue a lo suyo.
Esta nueva etapa de la IA agéntica en Android arranca de la mano de los Samsung Galaxy S26 y los Pixel 10, convertidos en el escaparate de una función que apunta directamente a cómo usaremos el móvil en los próximos años. De momento el despliegue se concentra en Estados Unidos y Corea del Sur, pero el impacto se notará también en Europa, donde fabricantes y reguladores observan con lupa cómo se gestiona el control del dispositivo, los permisos y la privacidad.
De asistente a piloto automático del móvil
Gemini ya puede actuar como un «piloto automático» del teléfono: el usuario da una orden sencilla y la IA se encarga de encadenar todos los pasos necesarios. La idea de Google es clara: pasar de un asistente que contesta a consultas a un agente que se remanga y hace el trabajo dentro de las apps.
En la práctica, esto significa que Gemini se mueve entre aplicaciones, rellena formularios, cambia ajustes y completa flujos de trabajo sin necesidad de que el usuario vaya tocando cada botón. Todo ocurre en segundo plano: el móvil se puede seguir usando con normalidad mientras el agente ejecuta la tarea.
Google pone ejemplos muy cotidianos para ilustrarlo. Es posible pedirle que haga un pedido en la pizzería de siempre: la IA revisa el grupo de familia en la app de mensajería, identifica qué quiere cada persona y entra en la aplicación de reparto para tramitar el pedido. O solicitarle que reserve una mesa, compre unas entradas o gestione una compra online en varios pasos.
La clave está en que ya no hace falta ir saltando de app en app. Gemini conecta esos puntos: abre la aplicación adecuada, navega por sus menús, introduce los datos y muestra el resultado final cuando termina. Lo que hasta ahora requería varios minutos de toques y menús puede quedar reducido a una orden de voz o un mensaje de texto.
Para llegar ahí, Google ha dotado a Gemini de agentes especializados en tareas concretas, pequeños módulos que se encargan de gestionar ámbitos específicos (pedidos, reservas, organización de información, ajustes del sistema…) y que colaboran entre sí para completar el encargo.

Qué puede hacer Gemini cuando controla el móvil
Más allá del impacto mediático, el interés real de esta función está en las tareas concretas. Según Google, Gemini puede encargarse ya de varios tipos de acciones en el teléfono, aunque con límites claros en esta fase inicial.
- Gestión de ajustes del sistema: activar o desactivar opciones sin bucear en menús. Basta con pedir que cambie un permiso, ajuste el brillo, modifique opciones de conectividad o altere parámetros más escondidos.
- Extracción y organización de información: recopilar datos de distintas aplicaciones (mensajería, correo, agendas, apps de viajes) y presentarlos en un único resumen, sin que el usuario tenga que ir abriendo cada una.
- Reservas y compras con varios pasos: iniciar una reserva en un restaurante, un viaje en una app tipo Uber o una compra online, completando la cadena de pantallas necesarias. El usuario mantiene la última palabra en pagos y decisiones sensibles.
- Automatización en segundo plano: mientras Gemini trabaja, el teléfono sigue disponible. El proceso se controla a través de notificaciones dinámicas, similares a las Live Activities de otros sistemas, desde las que se puede pausar o cancelar.
Google insiste en que cada acción se registra de forma visible: el usuario puede revisar qué ha hecho la IA antes de confirmar cambios críticos o pagos. No se trata de darle un cheque en blanco, sino de delegar los pasos mecánicos manteniendo la supervisión.
Para quienes se lían con la configuración del móvil, este enfoque supone una ayuda importante: Gemini puede convertirse en el «apaño» que configura el teléfono por ellos, sin que tengan que memorizar rutas de menús ni términos técnicos. Para los usuarios avanzados, la ganancia está en el tiempo: automatizar secuencias que antes llevaban varios minutos y muchos toques.
Aun así, el sistema no es todopoderoso. En esta fase inicial la compatibilidad con aplicaciones es parcial y muchas funciones dependen de que los desarrolladores adapten sus apps para que el agente las maneje con fiabilidad. Además, las reglas de cada país y tienda de aplicaciones condicionarán hasta dónde puede llegar esta automatización.

Cómo protege Google el control del móvil: ventana virtual, edad y permisos
Dejar que una IA controle el teléfono no es precisamente un tema menor, y en Google lo saben. Por eso han puesto el foco en varios mecanismos de seguridad. El más destacado es que todas las acciones de Gemini se ejecutan dentro de una especie de «ventana virtual» aislada dentro del móvil.
Este entorno funciona como una capa intermedia: el agente actúa ahí dentro y no tiene acceso libre al resto del sistema. Así se reduce el riesgo de que una tarea concreta termine abriendo la puerta a datos o funciones que no estaban previstas. Para el usuario, lo ideal es que la experiencia sea transparente: ve el proceso como si se hiciera en las apps habituales, pero técnicamente está encapsulado.
Además, Google ha puesto un filtro de edad. El control de aplicaciones por parte de Gemini solo se activará en cuentas de Google de mayores de 18 años. Es una forma de limitar el alcance en dispositivos utilizados por menores, un punto especialmente sensible en mercados europeos donde la regulación de protección de la infancia es estricta.
También hay restricciones en cuanto a qué aplicaciones pueden ser controladas. Al menos en el arranque, la función se limitará a un conjunto de apps seleccionadas, probablemente aquellas donde Google ha podido validar mejor el comportamiento del agente. La lista aún no se ha detallado, pero es de esperar que incluya servicios de Google, mensajería mayoritaria y algunas plataformas de entrega y transporte.
En paralelo, se refuerzan los controles de permisos y el historial de acciones. El usuario podrá revisar qué ha hecho exactamente Gemini, desde qué orden se lanzó hasta qué pantallas ha ido recorriendo. Y, sobre todo, tendrá que confirmar las operaciones delicadas: pagos, cambios profundos en la configuración o accesos a datos muy sensibles.
Dónde y cuándo llega: Galaxy S26, Pixel 10 y el salto a otros Android
La nueva capacidad de que Gemini controle el móvil arranca en un número limitado de dispositivos y países. Google ha elegido como escaparate los nuevos Samsung Galaxy S26, S26+ y S26 Ultra, además de los próximos Pixel 10, que se convierten así en la punta de lanza de esta estrategia.
En estos modelos, Gemini se integra como agente de sistema capaz de gestionar tareas en segundo plano, conviviendo con otras funciones de IA como Rodear para Buscar, que también ha recibido mejoras (por ejemplo, reconocer varios objetos a la vez en la pantalla para mostrar resultados más ricos o permitir probarse ropa virtualmente).
El despliegue inicial se centrará en Estados Unidos y Corea del Sur, dos mercados en los que tanto Samsung como Google suelen estrenar sus novedades más avanzadas. Por ahora, la compañía habla de una disponibilidad «muy pronto» en fase beta y sin fecha cerrada para una expansión global.
Para Europa y España, el horizonte es más abierto. La llegada de Gemini como agente que controla el móvil dependerá de varios factores: la adaptación de los fabricantes, el encaje con la regulación de datos (incluyendo el RGPD), las normas sobre servicios de plataforma y la propia estrategia de Google con los acuerdos comerciales locales.
Aun así, el movimiento apunta a una tendencia que probablemente veremos extenderse al resto de marcas Android en 2026. Google ya ha dejado caer que otros móviles recientes irán incorporando estas capacidades de forma progresiva, lo que abre la puerta a que cada fabricante tenga su propio «agente» sobre la base de Gemini u otras IA.

Un cambio de etapa en los asistentes móviles y lo que habrá que vigilar
Con este paso, Google da por cerrada la etapa de los asistentes clásicos y pone sobre la mesa un nuevo modelo: de responder a actuar. Frente a herramientas que se limitaban a ejecutar comandos simples, la apuesta ahora es que la IA se convierta en un colaborador capaz de encargarse de procesos completos.
El valor real de esta propuesta se medirá en el día a día. Habrá que ver cómo responde Gemini en flujos complejos, qué nivel de errores comete y cuánta latencia introduce cuando se le pide que encadene varias apps. También será clave comprobar si los desarrolladores de terceros adoptan la integración necesaria para que sus servicios funcionen sin tropiezos.
Otro frente delicado será el de la privacidad y la confianza. Que una IA tenga capacidad para tocar casi cualquier rincón del móvil obliga a que los controles de auditoría, los registros de actividad y las opciones para limitar su alcance sean realmente claros. El usuario necesitará saber qué está ocurriendo, poder desactivar funciones y, si lo desea, restringir el papel del agente a tareas muy concretas.
En paralelo, el mercado se está llenando de propuestas similares: cada gran fabricante prepara su propio agente inteligente para el móvil. Esto puede acelerar la innovación, pero también generar una cierta confusión si cada sistema ofrece un nivel distinto de transparencia y protección. El modo en que Google gestione esta primera oleada de Gemini como controlador del móvil marcará el listón para el resto.
Si todo encaja —compatibilidad suficiente, controles claros y un comportamiento estable—, lo probable es que en poco tiempo nos acostumbremos a delegar en la IA muchas de las tareas que hoy hacemos a mano en el teléfono: desde configurar el WiFi hasta organizar un viaje completo. Y, como suele pasar en tecnología, cuando eso ocurra será fácil olvidar lo raro que sonaba al principio eso de que «Gemini controla ya el móvil».

