Apple paga a Google mil millones de dólares al año por la nueva Siri con Gemini
Apple, la compañía que siempre se ha enorgullecido de controlar cada pieza de su ecosistema, desde el chip hasta el software, acaba de emitir un cheque en efectivo.mil millones de dólares al añopara Google. La razón: Siri necesita que Gemini funcione finalmente como un verdadero asistente de inteligencia artificial.
No es exagerado decir que este acuerdo redefine el panorama de la IA del consumidor. La mayor empresa de hardware del mundo admitió implícitamente que no puede competir en modelos lingüísticos con quienes lo hacen como negocio principal. Y en lugar de lanzar otro producto promedio con la etiqueta "Apple Intelligence", decidió pagar miles de millones para tener el mejor motor de inteligencia artificial disponible debajo de Siri.
Analicémoslo todo: cuánto cuesta, cómo funciona la privacidad, qué podrá hacer Siri, cuándo lo verás en tu iPhone y qué significa este movimiento para el mercado de la IA en su conjunto.
1. El trato: mil millones de dólares al año para Gemini
Según fuentes cercanas a las negociaciones, Apple llegó a un acuerdo plurianual con Google para licenciar unversión personalizada de Géminiscomo principal motor de inteligencia artificial de Siri. El valor estimado es de mil millones de dólares al año, que puede variar según el volumen de uso.
Para ponerlo en perspectiva: Apple ya paga a Google entre 18 y 20 mil millones de dólares al año para que Google sea el motor de búsqueda predeterminado en Safari. Este acuerdo de IA por mil millones de dólares es menor en valor absoluto, pero potencialmente más transformador para los productos Apple.
Estructura del acuerdo
- Duración:plurianual (las estimaciones apuntan a 3-5 años), con revisiones anuales
- Modelo básico:versión personalizada de Gemini (no Gemini público, una variante optimizada para las necesidades de Apple)
- Tratamiento:en servidores de Apple, dentro de la infraestructura de Private Cloud Compute. Los datos del usuario no van a Google
- Exclusividad parcial:Apple no puede utilizar modelos de la competencia (GPT, Claude) como motor principal de Siri durante la vigencia del acuerdo. Pero puede ofrecer opciones secundarias.
- Pagado:Cuota fija anual + componente variable en función del volumen de solicitudes.
Contexto histórico:Apple utilizó anteriormente Bing brevemente en 2023 para resultados de búsqueda en Spotlight, pero luego dio marcha atrás. Con la IA, la compañía aparentemente ha aprendido que el compromiso no funciona: o tienes el mejor modelo disponible o no vale la pena lanzarlo.
¿Por qué Géminis y no GPT?
Esa es la pregunta que todos hicieron. OpenAI, con GPT-4o y GPT-5, fue la elección obvia. Pero tres factores pesaron a favor de Google:
- Multimodalidad nativa:Gemini fue diseñado desde cero para procesar texto, imágenes, audio y video simultáneamente. GPT añadió la multimodalidad más tarde. Para Siri, que necesita entender lo que hay en la pantalla, escuchar comandos de voz e interpretar fotografías, la arquitectura de Gemini es más natural
- Eficiencia en el dispositivo:Google tiene experiencia con modelos que se ejecutan parcialmente en el dispositivo (Gemini Nano). Esto se alinea con la filosofía de Apple de procesar tanto como sea posible localmente.
- Relación existente:Apple y Google ya tienen una relación comercial masiva (el acuerdo de búsqueda). Agregar IA a esta asociación es una extensión natural, con contratos y términos legales ya definidos.
Según los rumores, también hubo un problema de control. Apple quería un socio que proporcionara el modelo pero que no intentara dominar la experiencia del usuario. Con OpenAI, se temía que ChatGPT se volviera más visible que Siri. Con Google, el acuerdo es claramente de infraestructura: Gemini es invisible para el usuario final.
2. El problema de Siri: solo funciona 2/3 del tiempo
Para entender por qué Apple tomó una decisión tan drástica, es necesario comprender la magnitud del problema de Siri.
Las pruebas internas de Apple (filtradas en 2025) mostraron que SiriSolo completa con éxito 2 de cada 3 solicitudesde usuarios. En otras palabras, 1 de cada 3 veces que hablas con Siri, ella falla, no entiende, responde incorrectamente o dice "No puedo ayudarte con eso".
Los números son vergonzosos
| Asistente | Tasa de éxito (2025) | Satisfacción del usuario |
|---|---|---|
| ChatGPT (aplicación móvil) | ~89% | 4.7/5 |
| Asistente de Google | ~85% | 4.3/5 |
| alexa | ~78% | 4.0/5 |
| Siri | ~67% | 3.2/5 |
Siri es el asistente predeterminado desde hace más de2 mil millones de dispositivos Apple activos. Tener el peor asistente de IA del mercado no sólo es vergonzoso: es un riesgo existencial para la narrativa de Apple como empresa de tecnología premium.
que sale mal
- Comprensión del lenguaje natural:Siri todavía opera con intenciones predefinidas. Si le pides algo fuera del catálogo de comandos, ella no entiende
- Razonamiento:Siri no razona. Asigna la entrada a la salida. Las solicitudes que requieren inferencia o contexto fallan constantemente
- Memoria:Siri no recuerda lo que preguntaste hace 30 segundos. Cada interacción está aislada.
- Tareas de varios pasos:"enviar un mensaje a João con la dirección del restaurante al que fui ayer" - esto requiere cruzar datos de Mensajes, Mapas e historial. siri no puede
- Integración con aplicaciones:A pesar del marco App Intents, pocas aplicaciones implementan un soporte profundo para Siri
El resultado es que los usuarios de iPhone se han entrenado parano uses siripara nada más que temporizadores, alarmas y "oye Siri, reproduce música". El asistente que debería ser la interfaz principal del iPhone se ha convertido en una utilidad básica.
3. Siri 2.0: lo que cambia con Gemini debajo
Con Gemini como motor, Siri gana capacidades que eran técnicamente imposibles con la arquitectura anterior. No es una actualización incremental, es una reconstrucción.
Capacidades confirmadas (a través de filtraciones y fuentes internas)
- Conversación natural:Siri comprenderá verdaderamente el lenguaje natural, con contexto, ambigüedad y matices. "Ese restaurante italiano que Marco recomendó" funcionará incluso si no dices el nombre del restaurante.
- Memoria de sesión:Siri recordará el contexto dentro de una conversación y, en algunos casos, entre sesiones. "Compárelo con ese hotel que investigué ayer" funcionará
- Razonamiento:solicitudes que requieren inferencia, comparación y análisis. "¿Cuál de mis vuelos de este mes tiene la mejor relación precio-duración?" -- Siri comparará datos del correo electrónico, el calendario y la aplicación Mapas
- Amplia generación de texto:Siri podrá redactar correos electrónicos completos, resumir documentos extensos y crear textos estructurados
- Multimodalidad:"¿Qué es esta planta?" apuntando la cámara. "Resumir este PDF" mostrando un documento. "¿Qué hay de malo en este código?" pegando una captura de pantalla
Lo que no cambia (por ahora)
- Voz de Siri:Apple mantendrá sus propias voces, no utilizará las voces de Google
- Identidad visual:No aparecerá ninguna marca de Google en la interfaz. Para el usuario, “Siri” es punto
- Tareas básicas:Temporizadores, alarmas, HomeKit y comandos simples continúan usando el motor del dispositivo de Apple, sin enviar nada a los servidores.
Manténgase a la vanguardia con habilidades actualizadas
La carrera de la IA no se detiene. Quienes ya tienen conocimientos de Claude Code se adaptan más rápidamente a cada nuevo desarrollo. Más de 748 habilidades que cubren marketing, desarrollo, SEO, copia y automatización.
Ver Mega Paquete — R$ 194. Privacidad: Gemini personalizado en servidores de Apple
La mayor preocupación con este acuerdo era predecible: la privacidad. Apple ha construido toda su marca en torno a "sus datos permanecen en su dispositivo". Usar una plantilla de Google dentro de Siri parece contradecir esto.
La solución de Apple es ingeniosa y compleja al mismo tiempo.
Computación en la nube privada + Géminis
Apple no envía datos de los usuarios a los servidores de Google. Lo que hizo Apple fue:
- Pesos del modelo de licencia:Apple recibió una copia del Gemini personalizado y lo ejecuta en sus propios servidores
- Infraestructura de computación en la nube privada:Los servidores que procesan las solicitudes de Siri utilizan chips Apple Silicon, con seguridad hardware (Secure Enclave) y sin acceso desde Google
- Procesamiento efímero:Los datos del usuario se procesan en la memoria, nunca se almacenan en el disco y se eliminan una vez completada la solicitud.
- Auditoría independiente:terceros pueden verificar que los servidores realmente hacen lo que dice Apple (el programa de auditoría Private Cloud Compute existe desde 2025)
En la práctica, Gemini se ejecuta dentro de una “bóveda” de Apple. Google proporcionó el modelo, pero no tiene acceso a los datos que lo atraviesan. Y una clara separación entreproveedor de tecnología(Google) ycontrolador de datos(Manzana).
Analogía sencilla:y cómo comprar un motor BMW para ponerlo en un coche Porsche. BMW vendió la tecnología, pero no tiene acceso al coche, al conductor ni al lugar al que se dirige. Porsche lo controla todo.
¿Qué significa esto para los usuarios?
Para el usuario final, nada cambia en términos de privacidad. Apple continúa procesando sus solicitudes a Siri, en los servidores de Apple, de acuerdo con las políticas de privacidad de Apple. El hecho de que el motor de inteligencia artificial de Google sea transparente: no es necesario aceptar los términos de Google, crear una cuenta de Google ni compartir nada con Google.
La única diferencia es que para pedidos complejos que requieren procesamiento en la nube, el modelo que se ejecuta en los servidores de Apple ahora es Gemini en lugar de un modelo interno inferior.
5. Siri como un completo chatbot
Uno de los cambios más visibles para el usuario será la transformación de Siri de un asistente de comandos de voz a unchatbot conversacional completo. Piense en ChatGPT, pero integrado de forma nativa en el iPhone.
¿Qué significa esto en la práctica?
Hoy en día, la interacción con Siri es transaccional: preguntas, ella responde (o falla), fin. Con Gemini, Siri admitirá conversaciones de varias rondas:
- Tú:"Quiero planificar un viaje a Lisboa en junio"
- Cangrejo:"Encontré vuelos de Sao Paulo a Lisboa en junio. El más barato cuesta R$ 3.200 con TAP y sale el día 8. ¿Quieres que revise los hoteles también?"
- Tú:"Sí, cerca del centro, hasta R$ 500 por noche"
- Cangrejo:"Tres opciones: [lista]. El hotel X tiene una calificación de 4,8 y está a 5 minutos de Chiado. ¿Quieres que reserve el vuelo y el hotel?"
- Tú:"Reserva el hotel, pero recuérdame mañana para decidir el vuelo"
- Cangrejo:"Hotel reservado. Recordatorio creado para mañana a las 10h sobre el vuelo a Lisboa."
Esta conversación implica buscar en la web, comparar precios, integrarse con una aplicación de reservas, crear un recordatorio y una memoria contextual. La Siri actual no sería capaz de completar ni siquiera la segunda línea. Siri 2.0 con Gemini hace todo de forma natural.
Interfaz visual renovada
Las filtraciones indican que Siri obtendrá una interfaz visual ampliada, con tarjetas de información, comparaciones visuales y respuestas formateadas, similar a lo que hace Google con Gemini en Android. El colorido orbe de Siri debería permanecer, pero el área de respuesta ocupará más espacio en la pantalla para dar cabida a respuestas ricas e interactivas.
6. Conciencia de pantalla y tareas de varios pasos
Quizás la característica más ambiciosa de Siri 2.0:reconocimiento de pantalla. Siri podrá "ver" lo que hay en tu pantalla y actuar en consecuencia.
Ejemplos de reconocimiento de pantalla
- Estás leyendo un artículo sobre Safari:"Siri, resume este artículo": Siri lee el contenido de la página y genera un resumen sin necesidad de copiar y pegar nada.
- Recibiste una foto en WhatsApp:"Siri, ¿qué hay en esta foto?" -- Siri analiza la imagen directamente desde la aplicación
- Estás en un correo electrónico con una invitación:"Siri, agrega este evento a mi calendario": Siri extrae la fecha, hora, ubicación y descripción del correo electrónico y crea el evento.
- Estás viendo un producto en un sitio web:"Siri, encuéntralo más barato": Siri identifica el producto y busca precios en otros sitios web.
Esto es posible porque Gemini es multimodal de forma nativa: procesa imágenes y texto simultáneamente. Siri puede enviar una "captura de pantalla" de lo que hay en la pantalla al modelo y recibir una respuesta contextual.
Tareas de varios pasos con confirmación.
Además de comprender la pantalla, Siri 2.0 podrá realizarsecuencias de acciónentre múltiples aplicaciones:
- "Siri, toma la dirección del restaurante que te envió Ana en iMessage y crea un evento en el calendario para el viernes a las 20h con una ruta en Maps"
- Siri identifica el mensaje de Ana, extrae la dirección, crea el evento y añade la ruta
- Antes de ejecutar muestra una vista previa: "Voy a crear: Cena en [restaurante], viernes 8pm, con un recorrido de 25min. ¿Confirmar?"
- Confirmas y todo se ejecuta.
El paso de confirmación es crucial. Apple no quiere que Siri realice acciones potencialmente erróneas sin comprobarlo. El modelo "vista previa + confirmación" es el término medio entre la autonomía total (arriesgada) y el Siri actual (inútil para tareas complejas).
7. Apple admite que no puede hacer IA sola
Esta es la parte que nadie en Apple quiere discutir públicamente, pero que el acuerdo deja claro:Apple no pudo crear modelos de lenguaje competitivos internamente.
No es por falta de dinero. Apple tiene 162 mil millones de dólares en efectivo. No es por falta de talento: la empresa ha contratado a cientos de investigadores de IA en los últimos tres años. El problema es estructural.
Por qué Apple fracasó en la IA
- Cultura de hardware:Apple es, en su ADN, una empresa de hardware. La cultura interna valora el diseño industrial, los chips personalizados y la experiencia física. Los modelos de lenguaje son puro software y la empresa nunca ha tenido esto como una prioridad máxima.
- Privacidad como limitación:la insistencia en procesar todo en el dispositivo limitó el tamaño de los modelos que Apple podía usar. Los modelos integrados en el dispositivo deben ser pequeños y eficientes. Los modelos de lenguaje competitivos deben ser enormes y ejecutarse en centros de datos.
- Inicio tardío:Si bien Google y OpenAI habían estado invirtiendo en transformadores desde 2017, Apple se centró en otras prioridades. La brecha de más de cinco años en la investigación de modelos lingüísticos es casi imposible de cerrar
- Secreto contraproducente:La cultura de secreto de Apple ha impedido que la empresa participe en la comunidad abierta de investigación de IA. Los investigadores de Apple no podían publicar artículos, asistir a conferencias ni colaborar externamente. Esto aisló al equipo de IA del progreso del campo.
- Retención de talento:Muchos investigadores de IA contratados por Apple se sintieron frustrados por la falta de libertad para publicar y la lentitud para llevar la investigación al producto.
La ironía:Apple, famosa por no depender nunca de terceros para componentes críticos, ahora depende de Google para la tecnología más importante de la próxima década. El control total que ha definido a Apple durante 20 años simplemente no se aplica a los modelos lingüísticos.
La estrategia híbrida
Apple no se ha rendido por completo con su propia IA. La estrategia es híbrida:
- En el dispositivo (Apple):Pequeñas plantillas para tareas rápidas: autocompletar texto, clasificación de fotografías, sugerencias de teclado, detección de objetos en la cámara.
- Nube (Géminis):Tareas complejas de lenguaje, razonamiento, análisis multimodal y generación de textos largos.
- Investigación a largo plazo:Apple sigue invirtiendo en sus propios modelos fundacionales, pero acepta que no tendrá paridad con Google/OpenAI/Anthropic hasta dentro de al menos 3-5 años
Es una decisión pragmática. En lugar de lanzar una Siri mediocre con modelos propios, Apple prefirió tener la mejor Siri posible con un modelo de terceros. Al usuario final no le importa quién hizo el modelo: le importa si Siri funciona.
8. Cronología: iOS 26.4, iOS 27 y WWDC 2026
¿Cuándo verás este nuevo Siri en tu iPhone? El cronograma aún no ha sido confirmado oficialmente, pero las filtraciones y análisis convergen en un escenario probable:
WWDC 2026 (junio)
Se espera que Apple presente Siri 2.0 como punto destacado de la conferencia magistral de junio. Históricamente, la WWDC es donde Apple presenta nuevas funciones de software. La nueva Siri será "una cosa más" de este año, o el tema central de toda la presentación.
Esperar:
- Demostración en vivo de nuevas capacidades (conversación natural, reconocimiento de pantalla, tareas de varios pasos)
- Anuncio del framework para que los desarrolladores se integren con el nuevo Siri
- Probablemente no se mencione Google ni Gemini: Apple posicionará todo como "Apple Intelligence" de próxima generación
iOS 26.4 (segunda mitad de 2026)
La primera versión pública de Siri 2.0 debería llegar como una actualización puntual en iOS 26, probablemente iOS 26.4. Esto sigue el patrón de Apple de lanzar funciones de IA como actualizaciones incrementales (como lo hizo con el Apple Intelligence original en iOS 18.1, 18.2, 18.4).
En esta versión, espere capacidades básicas de Gemini: conversación natural mejorada, generación de texto y razonamiento simple. Las funciones avanzadas como reconocimiento de pantalla y tareas de varios pasos pueden llegar más adelante.
iOS 27 (septiembre de 2027)
La versión completa de Siri 2.0, con todas las capacidades anunciadas, debería estar madura en iOS 27. Esto le da a Apple un año completo para iterar, corregir errores y ampliar la integración con aplicaciones de terceros.
| Cuando | que esperar |
|---|---|
| Junio de 2026 (WWDC) | Anuncio oficial, demostración en vivo, beta para desarrolladores |
| Septiembre-noviembre de 2026 (iOS 26.4) | Conversación natural, generación de texto, razonamiento básico. |
| 2027 (iOS 27) | Conciencia de pantalla, tareas de varios pasos, integración profunda con aplicaciones |
9. ¿Qué gana Google con esto?
Google no hizo este trato sólo por el dinero (aunque mil millones de dólares al año no es nada despreciable). La motivación es estratégica.
Distribución masiva
Gemini, como producto de consumo (aplicación Gemini), compite directamente con ChatGPT y está perdiendo adopción. Pero si Gemini es el motor de Siri, seguirá funcionando2 mil millones de dispositivos Applesin que los usuarios siquiera lo sepan. Y una distribución que ninguna campaña de marketing puede comprar.
Datos de uso (anonimizados)
Aunque Google no tiene acceso a los datos de los usuarios individuales, el acuerdo probablemente incluya telemetría agregada y anónima. Google puede recibir métricas como: tipos de solicitudes más comunes, tasas de éxito por categoría, distribución de idiomas y duración de las conversaciones. Estos datos ayudan a mejorar Gemini sin comprometer la privacidad individual.
Validación y bloqueo
La elección de Apple por Gemini en lugar de GPT es la validación más pública que Google podría recibir para sus modelos de IA. Esto fortalece la narrativa de que Gemini es competitivo (o superior) a GPT en aplicaciones prácticas. Y una vez que Siri dependa de Gemini durante 3 a 5 años, Apple tendrá dificultades para cambiar: bloqueo de plataforma clásico, pero al revés.
Presión en OpenAI
El acuerdo también es un mensaje para OpenAI: Google no necesita ganar en consumo (ChatGPT vs aplicación Gemini) si puede dominar la infraestructura. Si Gemini se ejecuta en Siri (Apple) y Google Assistant (Android), está enPrácticamente todos los teléfonos inteligentes del planeta.. OpenAI se limita a la aplicación ChatGPT, que es popular pero no está integrada en el sistema operativo de nadie.
10. Impacto en el mercado: qué cambia para ti
Si trabajas en tecnología, marketing o cualquier área que utilice herramientas digitales, este acuerdo tiene implicaciones concretas:
Para usuarios de iPhone
- Siri realmente funcionará:Por primera vez en años, valdrá la pena utilizar Siri para otras tareas además de los temporizadores. Caerá la barrera del "no sirve de nada preguntar, ella no entiende"
- Menos necesidad de aplicaciones de IA independientes:Si Siri hace lo que hace ChatGPT, muchos usuarios dejarán de abrir ChatGPT para tareas cotidianas
- Privacidad mantenida:A diferencia del uso de aplicaciones de inteligencia artificial de terceros, Siri con Gemini en los servidores de Apple mantiene la privacidad del ecosistema
Para profesionales del marketing
- La búsqueda por voz aumentará:Con una Siri competente, más personas buscarán información por voz. Si no estás optimizando para la búsqueda por voz, comienza ahora
- Asistentes como canal:Piensa en Siri como otro canal de distribución. Si Siri recomienda restaurantes, hoteles y productos, ser visible para los asistentes de IA será tan importante como el SEO
- Los chatbots corporativos deben mejorar:Cuando la referencia del usuario es un Siri con tecnología Gemini, los chatbots mediocres en sitios web corporativos se verán aún peor
Para desarrolladores
- SiriKit y App Intents ahora son más importantes:Las aplicaciones que se integren profundamente con Siri tendrán una ventaja competitiva. Si Siri puede realizar acciones dentro de su aplicación mediante comandos de voz, su aplicación gana exponencialmente más utilidad.
- Modelos lingüísticos como mercancías:El hecho de que Apple haya comprado Gemini en lugar de construirlo ella misma refuerza el hecho de que los modelos de lenguaje se están convirtiendo en infraestructura, como servidores o bases de datos. La diferencia no es tener el modelo, sino cómo lo integras
- Multimodelo y el futuro:Apple puede usar Gemini para Siri pero Claude para desarrollo (Xcode) y GPT para investigación. El mundo multimodelo ya es una realidad
El mensaje para quienes trabajan en IA:No importa si eres el equipo OpenAI, el equipo Google o el equipo Anthropic. Lo que importa es saber utilizar las herramientas. Apple, la empresa más valiosa del mundo, acaba de admitir que no puede hacerlo todo sola. Si Apple necesita socios de IA, usted también necesita las mejores herramientas disponibles.
2026 se define como el año en el que la IA dejó de ser "una característica interesante" para convertirse eninfraestructura criticadesde todas las plataformas principales. Microsoft con agentes autónomos, Apple con Gemini en Siri, Google dominando el backend de IA del consumidor, agentes en expansión Anthropic con Claude Code. Quienes dominen las herramientas tendrán ahora una gran ventaja para los próximos años.
No esperes a las próximas noticias. Actúe ahora.
Mientras las empresas lanzan nuevos modelos, usted puede utilizar lo mejor de ellos con habilidades profesionales. Código Claude + 748+ habilidades = máxima productividad. 19 reales.
Quiero las Habilidades — R$ 19Preguntas frecuentes
Según fuentes cercanas al acuerdo, aproximadamente mil millones de dólares al año. El acuerdo es plurianual y tiene cláusulas de exclusividad para asistentes de voz en dispositivos de consumo. El precio puede variar según el volumen de uso real.
No directamente. Apple utiliza una versión personalizada de Gemini que se ejecuta en sus propios servidores, dentro de la infraestructura de Private Cloud Compute. Los datos del usuario no van a Google. Apple mantiene el control total sobre la privacidad, utilizando Gemini como motor de lenguaje pero con sus propias capas de seguridad.
La expectativa es que se presente en la WWDC 2026 (junio) y se lance con iOS 26.4 en la segunda mitad de 2026, o completamente con iOS 27 en septiembre de 2027. Apple aún no lo ha confirmado oficialmente, pero las filtraciones constantes apuntan a esta línea de tiempo.
No del todo. Apple continúa desarrollando modelos más pequeños para ejecutar en el dispositivo (iPhone y Mac). El acuerdo con Google es para capacidades avanzadas que requieren modelos grandes en servidores. La estrategia es híbrida: modelos propietarios para tareas simples y Gemini para tareas complejas. Pero Apple acepta que no tendrá paridad con Google u OpenAI durante al menos 3 a 5 años.