Inteligencia artificial

Apple paga a Google mil millones de dólares al año por la nueva Siri con Gemini

minhaskills.io Apple Paga US$1 Bilhao/Ano ao Google Para a Nova Siri com Gemini Inteligencia Artificial
mishabilidades.io 4 de abril de 2026 16 minutos de lectura

Apple, la compañía que siempre se ha enorgullecido de controlar cada pieza de su ecosistema, desde el chip hasta el software, acaba de emitir un cheque en efectivo.mil millones de dólares al añopara Google. La razón: Siri necesita que Gemini funcione finalmente como un verdadero asistente de inteligencia artificial.

No es exagerado decir que este acuerdo redefine el panorama de la IA del consumidor. La mayor empresa de hardware del mundo admitió implícitamente que no puede competir en modelos lingüísticos con quienes lo hacen como negocio principal. Y en lugar de lanzar otro producto promedio con la etiqueta "Apple Intelligence", decidió pagar miles de millones para tener el mejor motor de inteligencia artificial disponible debajo de Siri.

Analicémoslo todo: cuánto cuesta, cómo funciona la privacidad, qué podrá hacer Siri, cuándo lo verás en tu iPhone y qué significa este movimiento para el mercado de la IA en su conjunto.

1. El trato: mil millones de dólares al año para Gemini

Según fuentes cercanas a las negociaciones, Apple llegó a un acuerdo plurianual con Google para licenciar unversión personalizada de Géminiscomo principal motor de inteligencia artificial de Siri. El valor estimado es de mil millones de dólares al año, que puede variar según el volumen de uso.

Para ponerlo en perspectiva: Apple ya paga a Google entre 18 y 20 mil millones de dólares al año para que Google sea el motor de búsqueda predeterminado en Safari. Este acuerdo de IA por mil millones de dólares es menor en valor absoluto, pero potencialmente más transformador para los productos Apple.

Estructura del acuerdo

Contexto histórico:Apple utilizó anteriormente Bing brevemente en 2023 para resultados de búsqueda en Spotlight, pero luego dio marcha atrás. Con la IA, la compañía aparentemente ha aprendido que el compromiso no funciona: o tienes el mejor modelo disponible o no vale la pena lanzarlo.

¿Por qué Géminis y no GPT?

Esa es la pregunta que todos hicieron. OpenAI, con GPT-4o y GPT-5, fue la elección obvia. Pero tres factores pesaron a favor de Google:

  1. Multimodalidad nativa:Gemini fue diseñado desde cero para procesar texto, imágenes, audio y video simultáneamente. GPT añadió la multimodalidad más tarde. Para Siri, que necesita entender lo que hay en la pantalla, escuchar comandos de voz e interpretar fotografías, la arquitectura de Gemini es más natural
  2. Eficiencia en el dispositivo:Google tiene experiencia con modelos que se ejecutan parcialmente en el dispositivo (Gemini Nano). Esto se alinea con la filosofía de Apple de procesar tanto como sea posible localmente.
  3. Relación existente:Apple y Google ya tienen una relación comercial masiva (el acuerdo de búsqueda). Agregar IA a esta asociación es una extensión natural, con contratos y términos legales ya definidos.

Según los rumores, también hubo un problema de control. Apple quería un socio que proporcionara el modelo pero que no intentara dominar la experiencia del usuario. Con OpenAI, se temía que ChatGPT se volviera más visible que Siri. Con Google, el acuerdo es claramente de infraestructura: Gemini es invisible para el usuario final.

2. El problema de Siri: solo funciona 2/3 del tiempo

Para entender por qué Apple tomó una decisión tan drástica, es necesario comprender la magnitud del problema de Siri.

Las pruebas internas de Apple (filtradas en 2025) mostraron que SiriSolo completa con éxito 2 de cada 3 solicitudesde usuarios. En otras palabras, 1 de cada 3 veces que hablas con Siri, ella falla, no entiende, responde incorrectamente o dice "No puedo ayudarte con eso".

Los números son vergonzosos

Asistente Tasa de éxito (2025) Satisfacción del usuario
ChatGPT (aplicación móvil)~89%4.7/5
Asistente de Google~85%4.3/5
alexa~78%4.0/5
Siri~67%3.2/5

Siri es el asistente predeterminado desde hace más de2 mil millones de dispositivos Apple activos. Tener el peor asistente de IA del mercado no sólo es vergonzoso: es un riesgo existencial para la narrativa de Apple como empresa de tecnología premium.

que sale mal

El resultado es que los usuarios de iPhone se han entrenado parano uses siripara nada más que temporizadores, alarmas y "oye Siri, reproduce música". El asistente que debería ser la interfaz principal del iPhone se ha convertido en una utilidad básica.

3. Siri 2.0: lo que cambia con Gemini debajo

Con Gemini como motor, Siri gana capacidades que eran técnicamente imposibles con la arquitectura anterior. No es una actualización incremental, es una reconstrucción.

Capacidades confirmadas (a través de filtraciones y fuentes internas)

Lo que no cambia (por ahora)

Manténgase a la vanguardia con habilidades actualizadas

La carrera de la IA no se detiene. Quienes ya tienen conocimientos de Claude Code se adaptan más rápidamente a cada nuevo desarrollo. Más de 748 habilidades que cubren marketing, desarrollo, SEO, copia y automatización.

Ver Mega Paquete — R$ 19

4. Privacidad: Gemini personalizado en servidores de Apple

La mayor preocupación con este acuerdo era predecible: la privacidad. Apple ha construido toda su marca en torno a "sus datos permanecen en su dispositivo". Usar una plantilla de Google dentro de Siri parece contradecir esto.

La solución de Apple es ingeniosa y compleja al mismo tiempo.

Computación en la nube privada + Géminis

Apple no envía datos de los usuarios a los servidores de Google. Lo que hizo Apple fue:

  1. Pesos del modelo de licencia:Apple recibió una copia del Gemini personalizado y lo ejecuta en sus propios servidores
  2. Infraestructura de computación en la nube privada:Los servidores que procesan las solicitudes de Siri utilizan chips Apple Silicon, con seguridad hardware (Secure Enclave) y sin acceso desde Google
  3. Procesamiento efímero:Los datos del usuario se procesan en la memoria, nunca se almacenan en el disco y se eliminan una vez completada la solicitud.
  4. Auditoría independiente:terceros pueden verificar que los servidores realmente hacen lo que dice Apple (el programa de auditoría Private Cloud Compute existe desde 2025)

En la práctica, Gemini se ejecuta dentro de una “bóveda” de Apple. Google proporcionó el modelo, pero no tiene acceso a los datos que lo atraviesan. Y una clara separación entreproveedor de tecnología(Google) ycontrolador de datos(Manzana).

Analogía sencilla:y cómo comprar un motor BMW para ponerlo en un coche Porsche. BMW vendió la tecnología, pero no tiene acceso al coche, al conductor ni al lugar al que se dirige. Porsche lo controla todo.

¿Qué significa esto para los usuarios?

Para el usuario final, nada cambia en términos de privacidad. Apple continúa procesando sus solicitudes a Siri, en los servidores de Apple, de acuerdo con las políticas de privacidad de Apple. El hecho de que el motor de inteligencia artificial de Google sea transparente: no es necesario aceptar los términos de Google, crear una cuenta de Google ni compartir nada con Google.

La única diferencia es que para pedidos complejos que requieren procesamiento en la nube, el modelo que se ejecuta en los servidores de Apple ahora es Gemini en lugar de un modelo interno inferior.

5. Siri como un completo chatbot

Uno de los cambios más visibles para el usuario será la transformación de Siri de un asistente de comandos de voz a unchatbot conversacional completo. Piense en ChatGPT, pero integrado de forma nativa en el iPhone.

¿Qué significa esto en la práctica?

Hoy en día, la interacción con Siri es transaccional: preguntas, ella responde (o falla), fin. Con Gemini, Siri admitirá conversaciones de varias rondas:

Esta conversación implica buscar en la web, comparar precios, integrarse con una aplicación de reservas, crear un recordatorio y una memoria contextual. La Siri actual no sería capaz de completar ni siquiera la segunda línea. Siri 2.0 con Gemini hace todo de forma natural.

Interfaz visual renovada

Las filtraciones indican que Siri obtendrá una interfaz visual ampliada, con tarjetas de información, comparaciones visuales y respuestas formateadas, similar a lo que hace Google con Gemini en Android. El colorido orbe de Siri debería permanecer, pero el área de respuesta ocupará más espacio en la pantalla para dar cabida a respuestas ricas e interactivas.

6. Conciencia de pantalla y tareas de varios pasos

Quizás la característica más ambiciosa de Siri 2.0:reconocimiento de pantalla. Siri podrá "ver" lo que hay en tu pantalla y actuar en consecuencia.

Ejemplos de reconocimiento de pantalla

Esto es posible porque Gemini es multimodal de forma nativa: procesa imágenes y texto simultáneamente. Siri puede enviar una "captura de pantalla" de lo que hay en la pantalla al modelo y recibir una respuesta contextual.

Tareas de varios pasos con confirmación.

Además de comprender la pantalla, Siri 2.0 podrá realizarsecuencias de acciónentre múltiples aplicaciones:

  1. "Siri, toma la dirección del restaurante que te envió Ana en iMessage y crea un evento en el calendario para el viernes a las 20h con una ruta en Maps"
  2. Siri identifica el mensaje de Ana, extrae la dirección, crea el evento y añade la ruta
  3. Antes de ejecutar muestra una vista previa: "Voy a crear: Cena en [restaurante], viernes 8pm, con un recorrido de 25min. ¿Confirmar?"
  4. Confirmas y todo se ejecuta.

El paso de confirmación es crucial. Apple no quiere que Siri realice acciones potencialmente erróneas sin comprobarlo. El modelo "vista previa + confirmación" es el término medio entre la autonomía total (arriesgada) y el Siri actual (inútil para tareas complejas).

7. Apple admite que no puede hacer IA sola

Esta es la parte que nadie en Apple quiere discutir públicamente, pero que el acuerdo deja claro:Apple no pudo crear modelos de lenguaje competitivos internamente.

No es por falta de dinero. Apple tiene 162 mil millones de dólares en efectivo. No es por falta de talento: la empresa ha contratado a cientos de investigadores de IA en los últimos tres años. El problema es estructural.

Por qué Apple fracasó en la IA

La ironía:Apple, famosa por no depender nunca de terceros para componentes críticos, ahora depende de Google para la tecnología más importante de la próxima década. El control total que ha definido a Apple durante 20 años simplemente no se aplica a los modelos lingüísticos.

La estrategia híbrida

Apple no se ha rendido por completo con su propia IA. La estrategia es híbrida:

Es una decisión pragmática. En lugar de lanzar una Siri mediocre con modelos propios, Apple prefirió tener la mejor Siri posible con un modelo de terceros. Al usuario final no le importa quién hizo el modelo: le importa si Siri funciona.

8. Cronología: iOS 26.4, iOS 27 y WWDC 2026

¿Cuándo verás este nuevo Siri en tu iPhone? El cronograma aún no ha sido confirmado oficialmente, pero las filtraciones y análisis convergen en un escenario probable:

WWDC 2026 (junio)

Se espera que Apple presente Siri 2.0 como punto destacado de la conferencia magistral de junio. Históricamente, la WWDC es donde Apple presenta nuevas funciones de software. La nueva Siri será "una cosa más" de este año, o el tema central de toda la presentación.

Esperar:

iOS 26.4 (segunda mitad de 2026)

La primera versión pública de Siri 2.0 debería llegar como una actualización puntual en iOS 26, probablemente iOS 26.4. Esto sigue el patrón de Apple de lanzar funciones de IA como actualizaciones incrementales (como lo hizo con el Apple Intelligence original en iOS 18.1, 18.2, 18.4).

En esta versión, espere capacidades básicas de Gemini: conversación natural mejorada, generación de texto y razonamiento simple. Las funciones avanzadas como reconocimiento de pantalla y tareas de varios pasos pueden llegar más adelante.

iOS 27 (septiembre de 2027)

La versión completa de Siri 2.0, con todas las capacidades anunciadas, debería estar madura en iOS 27. Esto le da a Apple un año completo para iterar, corregir errores y ampliar la integración con aplicaciones de terceros.

Cuando que esperar
Junio ​​de 2026 (WWDC)Anuncio oficial, demostración en vivo, beta para desarrolladores
Septiembre-noviembre de 2026 (iOS 26.4)Conversación natural, generación de texto, razonamiento básico.
2027 (iOS 27)Conciencia de pantalla, tareas de varios pasos, integración profunda con aplicaciones

9. ¿Qué gana Google con esto?

Google no hizo este trato sólo por el dinero (aunque mil millones de dólares al año no es nada despreciable). La motivación es estratégica.

Distribución masiva

Gemini, como producto de consumo (aplicación Gemini), compite directamente con ChatGPT y está perdiendo adopción. Pero si Gemini es el motor de Siri, seguirá funcionando2 mil millones de dispositivos Applesin que los usuarios siquiera lo sepan. Y una distribución que ninguna campaña de marketing puede comprar.

Datos de uso (anonimizados)

Aunque Google no tiene acceso a los datos de los usuarios individuales, el acuerdo probablemente incluya telemetría agregada y anónima. Google puede recibir métricas como: tipos de solicitudes más comunes, tasas de éxito por categoría, distribución de idiomas y duración de las conversaciones. Estos datos ayudan a mejorar Gemini sin comprometer la privacidad individual.

Validación y bloqueo

La elección de Apple por Gemini en lugar de GPT es la validación más pública que Google podría recibir para sus modelos de IA. Esto fortalece la narrativa de que Gemini es competitivo (o superior) a GPT en aplicaciones prácticas. Y una vez que Siri dependa de Gemini durante 3 a 5 años, Apple tendrá dificultades para cambiar: bloqueo de plataforma clásico, pero al revés.

Presión en OpenAI

El acuerdo también es un mensaje para OpenAI: Google no necesita ganar en consumo (ChatGPT vs aplicación Gemini) si puede dominar la infraestructura. Si Gemini se ejecuta en Siri (Apple) y Google Assistant (Android), está enPrácticamente todos los teléfonos inteligentes del planeta.. OpenAI se limita a la aplicación ChatGPT, que es popular pero no está integrada en el sistema operativo de nadie.

10. Impacto en el mercado: qué cambia para ti

Si trabajas en tecnología, marketing o cualquier área que utilice herramientas digitales, este acuerdo tiene implicaciones concretas:

Para usuarios de iPhone

Para profesionales del marketing

Para desarrolladores

El mensaje para quienes trabajan en IA:No importa si eres el equipo OpenAI, el equipo Google o el equipo Anthropic. Lo que importa es saber utilizar las herramientas. Apple, la empresa más valiosa del mundo, acaba de admitir que no puede hacerlo todo sola. Si Apple necesita socios de IA, usted también necesita las mejores herramientas disponibles.

2026 se define como el año en el que la IA dejó de ser "una característica interesante" para convertirse eninfraestructura criticadesde todas las plataformas principales. Microsoft con agentes autónomos, Apple con Gemini en Siri, Google dominando el backend de IA del consumidor, agentes en expansión Anthropic con Claude Code. Quienes dominen las herramientas tendrán ahora una gran ventaja para los próximos años.

No esperes a las próximas noticias. Actúe ahora.

Mientras las empresas lanzan nuevos modelos, usted puede utilizar lo mejor de ellos con habilidades profesionales. Código Claude + 748+ habilidades = máxima productividad. 19 reales.

Quiero las Habilidades — R$ 19

Preguntas frecuentes

Según fuentes cercanas al acuerdo, aproximadamente mil millones de dólares al año. El acuerdo es plurianual y tiene cláusulas de exclusividad para asistentes de voz en dispositivos de consumo. El precio puede variar según el volumen de uso real.

No directamente. Apple utiliza una versión personalizada de Gemini que se ejecuta en sus propios servidores, dentro de la infraestructura de Private Cloud Compute. Los datos del usuario no van a Google. Apple mantiene el control total sobre la privacidad, utilizando Gemini como motor de lenguaje pero con sus propias capas de seguridad.

La expectativa es que se presente en la WWDC 2026 (junio) y se lance con iOS 26.4 en la segunda mitad de 2026, o completamente con iOS 27 en septiembre de 2027. Apple aún no lo ha confirmado oficialmente, pero las filtraciones constantes apuntan a esta línea de tiempo.

No del todo. Apple continúa desarrollando modelos más pequeños para ejecutar en el dispositivo (iPhone y Mac). El acuerdo con Google es para capacidades avanzadas que requieren modelos grandes en servidores. La estrategia es híbrida: modelos propietarios para tareas simples y Gemini para tareas complejas. Pero Apple acepta que no tendrá paridad con Google u OpenAI durante al menos 3 a 5 años.

OFERTA ESPECIAL — POR TIEMPO LIMITADO

El paquete de habilidades de IA más grande del mercado

Más de 748 habilidades + 12 paquetes de bonificación + 120 000 indicaciones

748+
Skills Profissionais
Marketing, SEO, Copy, Dev, Social
12
Pacotes Bonus GitHub
8.107 skills + 4.076 workflows
100K+
Prompts de IA
ChatGPT, Claude, Gemini, Midjourney
135
Agents Prontos
Automacao, dados, negocio, dev

Desde R$ 197

R$19

Pago único • Acceso de por vida • Actualizaciones gratuitas

QUIERO EL MEGA PAQUETE AHORA

Instalar en 2 minutos • Funciona con Claude Code, Cursor, ChatGPT • Garantía de 7 días.

✓ SEO y GEO (20 habilidades) ✓ Redacción publicitaria (34 habilidades) ✓ Desarrollador (284 habilidades) ✓ Redes Sociales (170 habilidades) ✓ Plantillas n8n (4,076)
Comparte este artículo X/Twitter LinkedIn Facebook WhatsApp
PTENES