Así será el nuevo Siri impulsado por Gemini que prepara Apple

  • Siri dará un salto a dos fases: primero mejoras en iOS 26.4 y después un gran cambio en iOS 27.
  • Apple se apoyará en los modelos Gemini de Google, rebautizados como Apple Foundation Models v10 y v11.
  • El nuevo Siri podrá entender la pantalla, usar datos personales y funcionar como chatbot avanzado.
  • Parte del procesamiento se hará en la nube privada de Apple y Apple valora usar la infraestructura de Google.

Siri impulsado por Gemini

Apple se prepara para dar un giro importante a Siri con la ayuda de Gemini, la familia de modelos de inteligencia artificial de Google, y su integración en productos como CarPlay basado en Siri. Tras varios tropiezos con su estrategia de IA y una alianza con ChatGPT que no terminó de despegar, la compañía ha decidido apoyarse en tecnología externa para acelerar la evolución de su asistente.

En los próximos meses, los usuarios de iPhone, iPad y Mac empezarán a ver cómo Siri pasa de ser un asistente basado en comandos a convertirse en un chatbot conversacional capaz de entender contexto, pantalla y datos personales. Todo ello llegará escalonado, con una primera tanda de novedades en iOS 26.4 y una renovación mucho más profunda con iOS 27 y los sistemas equivalentes para iPad y Mac.

Un acuerdo millonario para un Siri con cerebro Gemini

Según diversas filtraciones y análisis, Apple ha cerrado un acuerdo valorado en alrededor de mil millones de dólares al año para poder integrar el núcleo de Gemini en su ecosistema. En la práctica, la compañía “alquila” la tecnología de IA de Google para utilizarla como base de sus propios modelos generativos.

Aunque en el fondo se apoyará en Gemini, Apple ha optado por bautizar sus modelos como Apple Foundation Models versión 10 y versión 11, una forma de mantener la marca propia y minimizar el protagonismo público de Google dentro de sus productos.

La compañía utilizará estos modelos con unos 1,2 billones de parámetros aproximadamente en una primera etapa, ejecutándolos desde servidores en la nube privada de Apple. Para la versión más avanzada, se estudia incluso apoyarse directamente en la infraestructura de Google, especialmente en sus unidades de procesamiento Tensor.

Este movimiento llega después de que Apple reconociera internamente que desarrollar un modelo competitivo completamente propio habría supuesto años adicionales de trabajo y más retrasos, algo difícil de justificar en un contexto en el que OpenAI, Google, Microsoft o Anthropic avanzan a gran velocidad.

Nuevo Siri con IA de Google Gemini

Calendario: de las primeras funciones en iOS 26.4 al gran salto en iOS 27

Las informaciones coinciden en que Apple mostrará las primeras capacidades del nuevo Siri impulsado por Gemini en la segunda mitad de febrero. No se descarta que lo haga mediante una presentación específica o una pequeña keynote, donde enseñaría demos en directo del asistente renovado.

Estas primeras novedades llegarán con iOS 26.4, cuya fase de pruebas comenzará en febrero y cuyo lanzamiento para el público general se espera entre marzo y abril. En esta versión, Siri ganará sobre todo inteligencia contextual y mejores respuestas, pero sin transformarse todavía en un chatbot completo.

La gran actualización se reservará para iOS 27 y el chatbot de Siri. Esta nueva generación de sistemas se presentará en el próximo WWDC, la conferencia anual de desarrolladores de Apple que tradicionalmente se celebra en junio, y supondrá la introducción del Siri totalmente remodelado.

En esa segunda fase, el asistente pasará a estar diseñado de forma nativa como un chatbot de IA generativa más cercano a ChatGPT o al propio Gemini, capaz de mantener diálogos prolongados por voz o por texto y de integrarse en profundidad en el sistema operativo.

Qué podrá hacer el nuevo Siri con Gemini

El plan de Apple contempla que Siri deje de limitarse a responder a órdenes simples y pase a convertirse en una herramienta mucho más flexible. Gracias a los modelos basados en Gemini, el asistente será capaz de analizar el contenido de la pantalla del iPhone o iPad, comprender mejor lo que el usuario está haciendo en cada momento y actuar en consecuencia.

Además, podrá tener en cuenta parte de nuestro historial personal y datos almacenados en el dispositivo (como los atajos de Siri) para ejecutar tareas más complejas: desde localizar un documento concreto hasta encontrar una foto determinada o preparar un mensaje a partir de información previa.

Entre las funciones previstas se incluyen la capacidad de buscar en Internet, generar imágenes, escribir o resumir textos, analizar documentos y escribir código. También podrá interpretar lo que aparece en pantalla para realizar acciones directas, como ajustar la configuración del dispositivo, gestionar el calendario o editar una imagen sin que el usuario tenga que navegar por menús.

Otra de las claves será la memoria del asistente. Al estilo de otros chatbots, Siri podrá recordar algunas interacciones pasadas para dar continuidad a las conversaciones, aunque con un límite configurado para proteger la privacidad. Apple prefiere acotar cuánto tiempo y qué tipo de información se conserva antes de que se olvide de forma automática.

La activación del asistente seguirá siendo familiar: se podrá invocar diciendo simplemente “Siri” o pulsando el botón de encendido, por lo que el cambio se notará sobre todo en la forma de conversar con él y en el tipo de tareas que será capaz de asumir.

El proyecto «Campos» y la estrategia de Apple en dos fases

Internamente, el rediseño de Siri responde al nombre en clave «Campos». Bajo este proyecto, el asistente pasará a ser el primer chatbot de IA que Apple integra de manera profunda en todos sus sistemas operativos.

La estrategia se articulará en dos etapas claramente diferenciadas. La primera, con iOS 26.4, añadirá funciones más inteligentes sobre la base actual de Siri, aprovechando Apple Foundation Models v10. Será una especie de transición, pensada para ir probando el terreno con los usuarios.

En la segunda, con iOS 27, iPadOS 27 y macOS 27, se producirá el reemplazo de la versión tradicional del asistente por el nuevo chatbot, que se apoyará en Apple Foundation Models v11, comparables a los modelos Gemini 3. Estos modelos serán más complejos y exigentes desde el punto de vista computacional.

Debido a esa complejidad adicional, Apple se plantea ejecutar esta versión avanzada de Siri sobre la infraestructura de Google, utilizando sus centros de datos y chips Tensor para el procesamiento en la nube, especialmente en las funciones que no sea posible ejecutar de forma eficiente en el propio dispositivo.

Al mismo tiempo, la compañía seguirá trabajando en una integración muy profunda con iOS, iPadOS y macOS, para que el asistente se perciba como una parte natural del sistema y no como una aplicación aislada, aunque internamente se estén probando también apps independientes durante la fase de desarrollo.

Todo apunta a que los próximos meses serán decisivos para ver si esta apuesta por un Siri impulsado por Gemini permite a Apple situarse al nivel de los líderes actuales de la IA generativa y recuperar terreno en un ámbito en el que hasta ahora se la consideraba rezagada, especialmente en Europa y España, donde el despliegue progresivo de estas funciones marcará la experiencia diaria de millones de usuarios.

nuevo Apple TV en 2026 con Siri renovada e IA
Artículo relacionado:
Nuevo Apple TV con Siri renovada e IA: lo que se espera