
Apple se prepara para dar un paso poco habitual en su forma de diseñar el iPhone: abrir Siri a chatbots de inteligencia artificial de terceros dentro de iOS 27. La compañía trabaja en un modelo en el que su asistente deje de depender solo de tecnología propia y pueda apoyarse en servicios como Gemini, Claude u otros competidores además de ChatGPT.
Este giro no afectaría solo a cómo hablamos con el móvil, sino que apunta a un cambio de rumbo en la estrategia de Apple con la IA móvil. Tras años defendiendo un ecosistema muy cerrado, la empresa estaría dispuesta a ceder parte del protagonismo a modelos externos con tal de que el iPhone y el resto de sus dispositivos sigan siendo una referencia en inteligencia artificial, también en mercados como España y el resto de Europa.
Una nueva etapa para Siri: de asistente cerrado a pasarela de IAs
Según información adelantada por Bloomberg y otros medios especializados, Apple desarrolla herramientas para que las aplicaciones de chatbot de IA instaladas desde la App Store puedan integrarse de forma nativa con Siri. Hasta ahora, la gran novedad era la cesión de determinadas preguntas a ChatGPT, pero el plan iría más allá al permitir al usuario elegir qué servicio quiere que le responda en cada momento.
La idea es que, con iOS 27, Siri funcione como una especie de «centralita» que reparte las consultas entre diferentes modelos. El usuario seguiría invocando al asistente como siempre, pero por debajo el sistema decidiría si la petición se resuelve con Apple Intelligence en local o se envía a Gemini, Claude, ChatGPT u otros servicios compatibles.
Entre los candidatos que se mencionan con más fuerza figuran Gemini de Alphabet (Google) y Claude de Anthropic, además del propio ChatGPT, que ya mantiene una integración con los dispositivos de Apple desde 2024. El objetivo no sería sustituir a Siri, sino convertirla en la capa visible que agrupa varias inteligencias bajo una misma interfaz.
Este planteamiento encaja con la hoja de ruta general de Apple Intelligence: las tareas que puedan ejecutarse en el propio dispositivo seguirían usando modelos de Apple, mientras que los chatbots de terceros entrarían en juego en consultas más complejas, con necesidades de contexto amplio o información actualizada en la nube.
En la práctica, esto podría traducirse en que quienes usan un iPhone, iPad o Mac en España puedan pedirle a Siri que redacte un correo, resuma un documento o explique un concepto técnico, dejando que el sistema reparta el trabajo entre las distintas IAs según la configuración elegida.
«Extensions»: el sistema para elegir qué IA se usa en cada caso
Para que todo esto sea manejable, Apple estaría diseñando un nuevo esquema de integración bajo un sistema conocido internamente como «Extensions» vinculado a Siri y Apple Intelligence. No se trataría de simples permisos aislados, sino de un modelo de extensiones profundo capaz de conectar las apps de IA con el propio asistente y con otras funciones del sistema operativo.
La filtración apunta a la creación de un apartado específico en Ajustes, dentro de «Apple Intelligence y Siri», tanto en iOS 27 como en iPadOS 27 y macOS 27. Desde ahí, el usuario podría elegir qué chatbot se utiliza por defecto, activar o desactivar cada integración y definir en qué tipo de tareas interviene cada modelo.
En ese menú aparecería un nuevo módulo de Extensiones, pensado para que las personas puedan asignar distintos servicios de IA a diferentes usos: un modelo para redacción de textos, otro para programación, otro para consultas generales o para resolver dudas más creativas, por ejemplo.
Apple quiere que esta configuración sea relativamente sencilla, similar a cuando se elige el navegador o el cliente de correo predeterminado en el iPhone. De esta forma, Siri seguiría siendo la puerta de entrada, pero la inteligencia que hay detrás podría cambiar dinámicamente en función de lo que haya definido el propio usuario.
Además de ese panel de ajustes, se baraja la llegada de accesos directos como «Pregunta a Siri» y «Escribe con Siri» repartidos por el sistema. Estos botones facilitarían iniciar conversaciones con el asistente tanto por voz como por texto, algo especialmente útil para entornos de trabajo, estudio o uso profesional en Europa donde se escriben y revisan muchos documentos a diario.
Impacto en iOS 27, iPadOS 27 y macOS 27: la IA como eje del ecosistema
La apertura de Siri no se limitaría al iPhone. Las filtraciones señalan que el mismo enfoque se extenderá a iPadOS 27 y macOS 27, de modo que la experiencia de IA sea coherente en todos los dispositivos de Apple. Tanto en tablets como en ordenadores, el asistente actuaría como «repartidor» de consultas entre Apple Intelligence y los modelos externos configurados.
Esta estrategia llega en paralelo a otros ajustes de calado en la plataforma. En el caso de macOS, por ejemplo, las nuevas versiones dejan definitivamente atrás a los Mac con procesadores Intel, concentrando el desarrollo en equipos con Apple Silicon. Ese cambio facilita ejecutar más operaciones de IA en local, algo clave para mantener la privacidad y el rendimiento que la compañía suele destacar en sus anuncios.
En el terreno móvil, iOS 27 se presenta como una actualización centrada más en estabilidad interna y capacidades inteligentes que en grandes cambios visuales. La integración de Siri con chatbots de terceros, el nuevo sistema de extensiones y la unificación con Spotlight y Apple Intelligence serían algunos de los ejes del lanzamiento que se espera para finales de 2026.
Para los usuarios europeos, y especialmente para quienes usan el ecosistema de Apple en España, esto puede convertir al iPhone en un dispositivo mucho más versátil para tareas de productividad, estudio y ocio. La posibilidad de elegir modelo según la necesidad puede marcar diferencias en profesiones como el derecho, la educación, el periodismo o el desarrollo de software.
Todo apunta a que la primera presentación oficial de estas funciones tendrá lugar en la WWDC, la conferencia anual de desarrolladores de Apple, donde tradicionalmente se muestran las grandes novedades de software antes de su lanzamiento general unos meses más tarde.
Presión competitiva y regulatoria: por qué Apple abre ahora Siri
El movimiento se entiende mejor si se mira el contexto. Durante años, Apple ha defendido un modelo donde controla estrechamente tanto el hardware como el software y la experiencia de uso. Sin embargo, en la carrera por la IA generativa ha ido un paso por detrás de gigantes como Google, OpenAI o Anthropic, que han avanzando muy rápido con sus propios chatbots.
Hasta ahora, buena parte del despliegue de Apple Intelligence ha dependido de acuerdos con proveedores externos. Primero llegaron informaciones sobre el papel de Gemini en las funciones de IA del iPhone, y más tarde se confirmó la integración de ChatGPT como vía para responder a determinadas consultas que los modelos de Apple no cubrían.
La posible apertura de Siri a más servicios sigue esa misma lógica: aprovechar la potencia de modelos ajenos sin renunciar al control de la capa de experiencia. En vez de encerrarse en un único asistente propietario, la compañía convertiría su plataforma en un entorno donde varias IAs pueden convivir bajo su paraguas.
Al mismo tiempo, Apple se mueve en un entorno de creciente presión regulatoria en la Unión Europea y Estados Unidos. Bruselas lleva tiempo exigiendo más interoperabilidad y menos bloqueos dentro de iOS, con cambios ya aplicados en la App Store y en el acceso de terceras partes a ciertas funciones del sistema.
Permitir que Gemini, Claude y otros modelos compitan por ser el motor de Siri en un iPhone vendido en España puede interpretarse como un gesto hacia esa mayor apertura que reclaman las autoridades. A la vez, Apple mantiene el control del canal: el acceso sigue pasando por su asistente, su tienda de aplicaciones y sus ajustes de sistema.
Negocio de suscripciones y rediseño de la experiencia con Siri
Más allá del aspecto técnico y regulatorio, la apertura de Siri incluye una vertiente económica clara. Los informes coinciden en que Apple podría llevarse una comisión por las suscripciones a servicios de IA de terceros que se contraten desde sus dispositivos, replicando el esquema que ya aplica a muchas compras dentro de apps.
En el caso de ChatGPT, Apple ya participa en los ingresos cuando los usuarios contratan planes de pago a través de su infraestructura. Extender ese modelo a otros chatbots como Gemini o Claude ampliaría las fuentes de facturación asociadas al auge de la IA, sin necesidad de que la compañía desarrolle todos los modelos por su cuenta.
Al mismo tiempo, la firma de Cupertino trabaja en una renovación profunda de la experiencia de Siri. Además de la integración con Apple Intelligence y los nuevos accesos directos, se plantea una aplicación propia de Siri con interfaz más cercana a la de los chatbots actuales, donde se puedan revisar historiales de conversación y gestionar mejor el contexto.
También se contempla una unificación más clara entre Siri, la búsqueda Spotlight y las funciones inteligentes del sistema, de forma que el usuario no tenga que pensar si está «preguntando a Siri» o «buscando en el iPhone». Todo pasaría por un único punto de entrada, y sería el propio sistema el que decidiese si responder con resultados locales, funciones del dispositivo o un modelo de IA externo.
Si la integración con terceros se ejecuta bien, muchos usuarios notarían respuestas más completas, naturales y útiles, aunque por debajo estén trabajando modelos desarrollados fuera de Apple. La clave, como siempre en el ecosistema de la compañía, pasa por que el proceso resulte transparente y no obligue a entender detalles técnicos para sacarle partido.
Calendario previsto y qué pueden esperar los usuarios en España y Europa
Aunque Apple guarda silencio de forma oficial, las distintas filtraciones sitúan la presentación de la nueva Siri y del sistema de extensiones en la próxima Conferencia Mundial de Desarrolladores (WWDC), que se celebra tradicionalmente en junio. En ese escenario se mostraría por primera vez la capacidad de conectar el asistente con varios chatbots en paralelo.
Tras ese anuncio, lo habitual es que iOS 27, iPadOS 27 y macOS 27 entren en fase beta para desarrolladores y más adelante en pruebas públicas, permitiendo que los primeros usuarios y equipos técnicos vayan probando la integración con IAs externas antes del lanzamiento general.
Si se repite el calendario de otros años, la versión final de iOS 27 llegaría alrededor de septiembre u octubre, coincidiendo con los nuevos iPhone que se lanzarán en Europa. Será entonces cuando los usuarios españoles puedan comprobar hasta qué punto la nueva Siri se ha convertido en un auténtico hub de inteligencia artificial.
Con todo, es posible que algunos detalles cambien sobre la marcha. La apertura de Siri choca en parte con la filosofía de control férreo que ha definido a Apple durante más de una década, así que la empresa podría modular el alcance de las integraciones o escalonar su despliegue según vea la reacción del mercado, de los reguladores y de los propios usuarios.
Si los planes se mantienen, iOS 27 inaugurará una etapa distinta: Siri pasará de ser un asistente limitado y con fama de quedarse corta frente a la competencia a convertirse en la puerta de entrada a un catálogo de modelos de IA que compiten por ofrecer las mejores respuestas dentro del ecosistema de Apple, con los usuarios en España y el resto de Europa ganando margen de elección sin salir del entorno al que ya están acostumbrados.


