Google ha dado un paso más en la integración de la inteligencia artificial en el móvil con las nuevas capacidades autónomas de Gemini para Android. El asistente deja de limitarse a responder comandos de voz o texto para empezar a realizar tareas complejas dentro de las aplicaciones, con menos intervención directa del usuario.
Estas funciones llegan inicialmente en versión beta a una serie de móviles concretos, como los Samsung Galaxy S26 y los Google Pixel 10. Aunque el despliegue arranca en Estados Unidos y Corea del Sur, el movimiento apunta a un futuro en el que, también en Europa y España, buena parte de las gestiones cotidianas en el móvil se deleguen en la IA.
Gemini se encarga de pedirte un taxi o hacer la compra por ti
La gran novedad es que los usuarios podrán delegar procesos completos en Gemini sin ir supervisando cada paso. En los Galaxy S26, por ejemplo, basta con mantener pulsado el botón lateral para activar la versión beta de la app de Gemini y darle una orden del tipo “pide un taxi al trabajo” o “hazme la lista de la compra”.
Una vez dada la instrucción, la inteligencia artificial trabaja en segundo plano dentro de la aplicación correspondiente (de transporte, comida o compras) mientras la persona sigue usando el móvil con normalidad, revisa el correo o envía mensajes. Desde la barra de notificaciones se puede consultar el progreso, pausar lo que está haciendo la IA o cancelarlo si algo no convence.
Google explica que el sistema es capaz de navegar de forma autónoma por las apps compatibles, seleccionar productos, completar formularios y dejarlo todo listo para que el usuario revise y confirme cuando lo considere. Es un cambio importante respecto a los asistentes tradicionales, que solían limitarse a abrir apps o sugerir acciones sin llegar tan lejos en la ejecución.
De momento, esta automatización se limita a ciertas categorías de aplicaciones —principalmente comida, transporte y compras online— y solo en la fase inicial de pruebas. Aunque la beta arranca en Estados Unidos y Corea del Sur, es previsible que, si el sistema funciona bien, Google extienda estas capacidades a más regiones, incluido el mercado europeo.
Integración más profunda de Gemini dentro de Android
Con esta actualización, Android da un salto hacia una integración más profunda de Gemini en el propio sistema operativo. No se trata solo de un chatbot al que se le hacen preguntas, sino de un componente que entiende mejor el contexto del dispositivo y actúa en función de lo que ocurre en la pantalla o en las apps.
Google detalla que la IA opera en un entorno virtual supervisado dentro del teléfono, lo que permite al usuario ver en tiempo real qué está haciendo Gemini y, si lo desea, detener la tarea. De este modo, la compañía intenta dejar claro que la automatización no implica perder el control sobre lo que pasa en el dispositivo.
Esta “profundidad” de integración busca reducir la cantidad de pasos manuales que hay que realizar para una misma gestión: menos cambios entre aplicaciones, menos formularios repetitivos y menos comandos que teclean o dictan los usuarios una y otra vez.
En la práctica, Gemini pasa de ser una función accesoria a asentarse como un intermediario activo en la experiencia móvil, que coordina distintas apps para completar tareas que antes requerían bastante tiempo frente a la pantalla.
Más seguridad: detección avanzada de estafas telefónicas
Otra de las patas importantes de esta actualización es la mejora de la protección frente a estafas telefónicas. Android integra funciones avanzadas de detección de fraude apoyadas en Gemini, empezando por la app Samsung Phone en los Galaxy S26.
Cuando se recibe una llamada, el sistema es capaz de analizar en tiempo real si el contenido suena sospechoso —por ejemplo, si se piden datos bancarios o se insiste en pagos urgentes— y, en caso de detectar un posible intento de engaño, lanza una alerta sonora y háptica al usuario.
Google subraya que todo este análisis se realiza directamente en el dispositivo, sin enviar el audio al servidor, con el objetivo de preservar la privacidad. Además, la función se desactiva automáticamente cuando se trata de contactos guardados en la agenda, para evitar sobresaltos innecesarios en llamadas habituales.
La compañía también ha reforzado la detección de mensajes fraudulentos en la app Mensajes de Google, ampliando la identificación de posibles campañas de phishing y comunicaciones sospechosas. Por ahora, estas funciones se estrenan en inglés y en Estados Unidos, pero encajan con las exigencias normativas europeas en materia de protección de datos y seguridad, por lo que no sería extraño verlas adaptadas al mercado europeo más adelante.
“Busca con un círculo” se vuelve más útil para la moda
Junto a las capacidades autónomas de Gemini, Android mejora la función visual conocida como “Busca con un círculo” (o “Rodea para buscar” en algunas versiones). Esta herramienta permite rodear cualquier elemento que aparezca en pantalla para obtener información relacionada, sin salir de la app que se está usando.
A partir de la nueva actualización, esta tecnología será capaz de reconocer conjuntos de ropa completos, no solo prendas sueltas. Es decir, si el usuario ve una foto con un look completo —camiseta, pantalón, zapatillas— puede rodear la imagen y la IA propondrá coincidencias visuales para cada pieza por separado.
El sistema muestra propuestas de prendas similares, sugerencias de estilo y opciones de compra, acercando aún más el comercio electrónico a la experiencia directa desde el móvil. En la práctica, funciona como una especie de Google Lens integrado, pero pensado para actuar al instante sobre lo que ya se está viendo en la pantalla.
Esta mejora se activará también en móviles como el Samsung Galaxy S26 y el Google Pixel 10, que se están convirtiendo en uno de los principales escaparates de las novedades de Gemini en Android. Para mercados como España, donde la moda y las compras online tienen un peso importante, este tipo de funciones podrían resultar especialmente atractivas cuando se generalicen.
Gemini como asistente cada vez más autónomo
La actualización marca una nueva etapa para Gemini en Android, donde el asistente evoluciona de simple herramienta conversacional a actor directo en el dispositivo. Ya no se limita a decir cómo hacer algo, sino que puede hacerlo él mismo dentro de las apps, con supervisión final del usuario.
Google insiste en que el enfoque sigue siendo gradual: las nuevas capacidades se lanzan primero como beta en un número limitado de dispositivos y países, con el objetivo de pulir el comportamiento del sistema y resolver posibles problemas antes de una expansión mayor.
En paralelo, el resto de fabricantes también están moviendo ficha en inteligencia artificial móvil, lo que deja claro que la competencia por liderar la IA en el smartphone está en plena efervescencia. En este contexto, la propuesta de Gemini busca diferenciarse por su autonomía y por una integración más fuerte con las funciones nativas de Android.
Aunque por ahora la mayoría de estas novedades se prueban fuera de Europa, su llegada anticipa un escenario en el que tareas habituales como gestionar compras, reservar transporte o filtrar estafas podrían manejarse casi por completo sin tocar la pantalla, algo que podría cambiar bastante la forma en la que se usa el móvil en el día a día.
Con todo este paquete de mejoras, Android y Gemini apuntan hacia un modelo de móvil en el que la inteligencia artificial asume cada vez más trabajo rutinario, desde la seguridad de las llamadas y mensajes hasta la organización de compras y planes cotidianos, mientras el usuario conserva la última palabra sobre qué se hace y cómo se hace.