El nuevo Siri basado en Gemini se retrasa en iOS 26.4: qué ha pasado y qué podemos esperar

  • Apple habría pospuesto el despliegue completo del nuevo Siri de iOS 26.4 a iOS 26.5 e incluso iOS 27 por problemas en las pruebas internas.
  • El asistente se apoya en una nueva arquitectura y en modelos de lenguaje de gran tamaño impulsados en parte por la tecnología de Google Gemini.
  • Las primeras funciones llegarían como una vista previa limitada, con fallos de precisión, lentitud y conducta errática en tareas complejas.
  • Apple mantiene 2026 como horizonte para el gran salto de Siri, con un asistente más tipo chatbot y mayor integración en iOS, iPadOS y macOS.

Siri con IA generativa en iOS

El plan inicial de Apple pasaba por estrenar un nuevo Siri con capacidades avanzadas de inteligencia artificial generativa en iOS 26.4, pero la realidad se ha vuelto a imponer. Tras varios meses de pruebas internas, la compañía se ha encontrado con más obstáculos de los previstos y el lanzamiento en esa versión del sistema ya no está tan claro.

Según distintas fuentes internas citadas por analistas como Mark Gurman, las novedades más ambiciosas del Siri renovado se desplazarían como mínimo a iOS 26.5, con mayo como fecha más temprana, y parte de las funciones podrían no ver la luz hasta , previsto para septiembre junto con la próxima generación de iPhone.

De iOS 26.4 a iOS 26.5: un retraso que se veía venir

Desde el verano de 2024 se venía hablando de un Siri capaz de aprovechar modelos de lenguaje similares a Gemini o ChatGPT, capaz de entender mejor el contexto y realizar tareas encadenadas. Sin embargo, la materialización de esa promesa se ha ido aplazando una y otra vez en la hoja de ruta de Apple.

En un primer momento, el objetivo interno era llevar el grueso de la nueva experiencia de Siri a principios de 2025. Más tarde, la propia Apple rebajó expectativas y situó el gran salto del asistente en algún momento de 2026, sin concretar la versión. Pese a esa prudencia pública, los planes internos marcaban iOS 26.4, con lanzamiento en marzo de 2026, como el punto de partida.

Todo se ha torcido en las últimas semanas de pruebas. Los builds internos de iOS 26.4 habrían mostrado fallos relevantes, hasta el punto de que Apple ha dado instrucciones a los ingenieros para seguir validando las nuevas funciones de Siri directamente sobre iOS 26.5. Ese movimiento es el que ha encendido todas las alarmas y ha llevado a hablar abiertamente de retraso.

Internamente, algunos equipos ya daban por hecho desde finales de 2025 que el asistente no estaba lo bastante pulido como para liberarlo al gran público en marzo. La sensación general habría sido que hacía falta alargar los plazos unos meses más si se quería evitar otro tropiezo mediático como el de los primeros anuncios de Siri con IA que nunca llegaron a tiempo.

Qué ha fallado en las pruebas del nuevo Siri

El motivo de este nuevo aplazamiento no tiene tanto que ver con la falta de funciones como con su comportamiento real. En las pruebas internas, el Siri renovado se ha mostrado más lento de lo deseable y, sobre todo, demasiado inconstante en su precisión.

Entre los problemas detectados se encuentran respuestas que tardan demasiado en generarse, consultas mal interpretadas y una gestión errática de las tareas más complejas. Cuando la petición requiere varios pasos encadenados o un contexto más rico, el asistente tiende a fallar más de la cuenta.

Otro síntoma preocupante es que, en situaciones donde Siri debería valerse de su propio modelo, el sistema recurre de forma inesperada a la integración ya existente con ChatGPT. Es decir, delega en la IA de terceros tareas que, en teoría, el nuevo núcleo de Siri debería ser capaz de asumir por sí mismo.

A nivel de interacción con el usuario también se han encontrado fricciones llamativas. En algunos casos, Siri llega a interrumpir al usuario si detecta que habla demasiado rápido, cortando frases a la mitad. Y se han reportado problemas para seguir el hilo cuando las preguntas encadenan varios matices o requieren mantener un contexto durante más tiempo.

Todo ello ha llevado a Apple a optar por una estrategia más conservadora: presentar una especie de «aperitivo» de lo que será el nuevo Siri en una versión intermedia, y reservar el despliegue completo para más adelante, cuando la arquitectura esté más madura.

Una nueva base técnica: de Siri clásico a un asistente con LLM

Más allá de los plazos, el cambio que Apple está intentando ejecutar es profundo. El Siri tradicional funcionaba como una cadena de tareas predefinidas: reconocía órdenes concretas, extraía datos simples y ejecutaba acciones individuales a través de APIs del sistema. Ese enfoque servía para alarmas, recordatorios o comandos muy específicos, pero se quedaba corto en cuanto la petición requería contexto o varias acciones combinadas.

Con la nueva generación, Apple está reconstruyendo Siri alrededor de un único modelo de lenguaje de gran tamaño (LLM) que actúa como eje central. Ya no se limita a convertir voz en texto y buscar palabras clave, sino que intenta razonar primero sobre la intención del usuario y, a partir de ahí, decidir qué hacer.

Esta arquitectura, conocida internamente como Linwood, se apoya en la plataforma de modelos de la casa, Apple Foundations Models, a la que ahora se suma tecnología desarrollada en colaboración con el equipo de Google Gemini. El objetivo es ofrecer un asistente que entienda mejor el lenguaje natural y se adapte a peticiones menos rígidas.

El cambio no es solo técnico. Apple viene de varios años en los que Siri ha quedado por detrás de otros asistentes y chatbots en capacidad real. Este rediseño pretende ser, en parte, una corrección de rumbo: pasar de un asistente que «atiende encargos» a otro que puede desenvolverse con más soltura en el día a día digital del usuario.

La alianza con Google y el papel de Gemini

A comienzos de este año, Apple dio un giro que hace unos años habría resultado impensable: selló un acuerdo de colaboración con Google para utilizar el núcleo de Gemini en Siri y en otras funciones de Apple Intelligence. La compañía de Cupertino asume así que, para acelerar la llegada de un asistente verdaderamente competitivo, necesita apoyarse en socios externos.

Según lo que ha trascendido, Gemini 3 y sus modelos de lenguaje servirán de base para parte del procesamiento avanzado, especialmente para aquellas consultas que requieren más potencia de cálculo o acceso a información compleja. Mientras tanto, Apple sigue desarrollando sus propios modelos y ajustando qué se procesa en el dispositivo y qué se envía a la nube.

Una de las grandes dudas era qué ocurriría con los datos personales de los usuarios europeos. La compañía habría optado por un enfoque en el que la información sensible se queda bajo su control, evitando que las consultas se almacenen en servidores de Google. Para ello recurre a su plataforma de nube privada, con procesamiento aislado y datos anonimizados.

Desde la dirección, Tim Cook y Craig Federighi han insistido en que la IA personalizada no debe exponer la información del usuario. Apple asegura basarse principalmente en datos con licencia y en información sintética —generada artificialmente— en lugar de entrenar modelos con contenido procedente directamente de las cuentas de sus clientes.

En paralelo, la empresa está trabajando en nuevos chips para centros de datos, dentro de un proyecto de alto rendimiento conocido como Baltra, enfocado precisamente a acelerar el procesamiento de IA en la nube manteniendo sus exigencias de privacidad. La idea es tener un tejido de hardware y software propio que sostenga el despliegue masivo de estas funciones en iOS, iPadOS y macOS.

Qué funciones de Siri se están retrasando y cómo llegarán

No todo el paquete de novedades de Siri llegará de golpe ni en el mismo estado de madurez. Apple estaría valorando introducir algunas capacidades en modo «vista previa», con advertencias explícitas de que se trata de funciones en pruebas que pueden no funcionar siempre de forma fiable.

Una de las características que más se ha visto afectada por los retrasos es la capacidad ampliada de Siri para acceder a datos personales. Esta función permitiría, por ejemplo, pedirle al asistente que localice un mensaje antiguo con un enlace a un podcast que envió un amigo y reproducirlo directamente, sin que el usuario tenga que buscarlo a mano.

También queda en el aire la expansión de las llamadas intenciones de aplicación, un sistema con el que Siri podría controlar acciones concretas dentro de apps de Apple y de terceros en una sola orden de voz. Un comando del tipo «encuentra esa foto del viaje a Valencia, retócala y mándasela a Ana» se resolvería sin que el usuario tenga que ir saltando entre aplicaciones.

Las compilaciones internas de iOS 26.5 incluyen ya un interruptor de ajustes que permite activar una «preview» de estas capacidades, lo que encaja con la idea de un lanzamiento parcial. Para Europa y España, donde la regulación sobre privacidad y servicios digitales es más estricta, será especialmente relevante ver cómo se comunica esta fase de pruebas al usuario final.

Además, Apple está experimentando con una nueva herramienta de búsqueda web integrada en Siri, similar a lo que ofrecen propuestas como Perplexity o la sección Gemini del buscador de Google. El asistente podría consultar la web, sintetizar la información relevante y devolver un resumen junto con enlaces a las fuentes originales.

Más allá del retraso: hacia un Siri realmente contextual

Cuando todo este paquete de funciones madure, el objetivo es que Siri deje de ser un mero lanzador de acciones para convertirse en un asistente que entiende mejor el contexto del usuario. Apple lleva tiempo trabajando sobre tres pilares: contexto personal, conciencia de pantalla e integración profunda entre aplicaciones.

El contexto personal se traduce en que Siri pueda consultar correos, mensajes, archivos o fotos —con los permisos y límites correspondientes— para responder con mayor precisión. Consultas del tipo «búscame el documento que me envió María la semana pasada» deberían resolverse de forma más directa y fiable.

La conciencia de pantalla permite al asistente entender qué está viendo el usuario en ese momento y actuar en consecuencia: añadir una dirección de un mensaje a un contacto, reenviar una imagen abierta en otra app o completar formularios con información relevante sin que el usuario tenga que copiar y pegar.

Por último, la integración entre aplicaciones aspira a que Siri pueda encadenar acciones: editar una foto y compartirla, preparar un archivo y subirlo a la nube, o planificar una ruta y enviarla a un grupo, todo dentro de una única interacción de voz. En el papel suena muy prometedor; el reto está en conseguir que funcione con la fiabilidad que se espera en un iPhone o un iPad.

iOS 26.4, tal y como está planteado en estos momentos, se quedaría en una especie de punto de inflexión discreto: cambios internos importantes, pero con una exposición limitada al usuario. El salto «visible», con un Siri que se comporte más como un asistente conversacional continuo, se reserva para posteriores versiones del sistema.

El horizonte de iOS 27: un Siri más cercano a un chatbot

Mientras resuelve los tropiezos a corto plazo, Apple ya mira más allá. Para iOS 27, iPadOS 27 y macOS 27, la compañía prepara una iniciativa de IA de mayor calado bajo el nombre en clave «Campo». El objetivo es ofrecer un Siri mucho más cercano a un chatbot, con interacción continua, memoria de contexto y un papel más central en la experiencia del sistema operativo.

Este Siri de próxima generación estaría impulsado por servidores de Google con un modelo Gemini personalizado, adaptado a las necesidades y exigencias de Apple. La integración no se limitaría al asistente de voz: se extendería a aplicaciones clave como Mail, Calendario o Safari, donde Siri podría ayudar a organizar información, redactar contenidos o encontrar datos concretos.

Una parte importante del diseño pasa por permitir que el usuario controle funciones en todo el sistema operativo mediante lenguaje natural: ajustar configuraciones avanzadas, mover archivos, gestionar eventos del calendario o filtrar correos complejos sin tener que navegar por múltiples menús.

Apple también estaría probando una app independiente de Siri, pensada para gestionar un historial de interacciones con el asistente al estilo de los chats con modelos generativos. Esto abriría la puerta a trabajar con conversaciones largas, retomar consultas pasadas o revisar contenidos generados previamente.

Si estos planes se cumplen, el usuario europeo podría encontrarse en 2026 con un panorama muy distinto al que conocía: un asistente mucho más presente en el día a día, integrado en el núcleo de los sistemas de Apple y apoyado en la infraestructura de IA más potente que la compañía haya desplegado hasta la fecha.

La sensación para muchos usuarios es que el nuevo Siri basado en Gemini siempre está a punto de llegar y nunca termina de aterrizar, pero el volumen de cambios que Apple intenta introducir explica parte de esta eterna espera: una arquitectura reconstruida, acuerdos con Google, exigencias de privacidad muy altas y funciones que tocan directamente los datos personales. Si todo encaja, el retraso de iOS 26.4 puede quedar como un tropiezo más en el camino hacia un Siri por fin a la altura de lo que se espera en 2026, tanto en España como en el resto de Europa.

Siri impulsado por Gemini
Artículo relacionado:
Así será el nuevo Siri impulsado por Gemini que prepara Apple