Google I/O 2025: Gemini evoluciona, Android 16 se transforma y las smart glasses vuelven al centro de la innovación

Android 16, Gemini 2.5, nuevas smart glasses y el futuro de la realidad extendida: Google I/O 2025 lo cambia todo. Así es como la IA se vuelve omnipresente

El futuro según Google: cuando el software y el hardware se funden en una misma experiencia. Durante más de una década, Google I/O ha sido la vitrina donde se cocinan los avances que definirán los próximos años en software y servicios digitales. Pero lo que ocurrió en Mountain View este 2025 fue algo distinto. Por primera vez, la compañía mostró un ecosistema donde la inteligencia artificial no es solo una función: es el núcleo de todo.

Lee también: Youtube no quiere que bloquees los anuncios, así que están ralentizando los videos

Desde Gemini, que ahora vive directamente en Android, hasta el regreso de las smart glasses, pasando por un Android 16 que se siente más como un sistema inteligente que como un simple sistema operativo, Google dejó en claro que estamos entrando en la era de la computación contextual: una en la que los dispositivos ya no esperan nuestras órdenes, sino que actúan como copilotos inteligentes.

Y sí, eso significa que el smartphone ya no es el único protagonista.

Gemini 2.5: la IA que te conoce mejor que tú mismo

La gran estrella del evento fue, sin duda, Gemini 2.5, la nueva generación del modelo de lenguaje de Google. Pero esta vez no se presentó como un chatbot aislado. Gemini ahora vive dentro del sistema operativo, interpreta tus contextos en tiempo real, y actúa de manera proactiva en apps como Gmail, Docs, Chrome, YouTube y hasta en tus ajustes del teléfono.

Por ejemplo, mientras escribes un correo, Gemini puede sugerirte automáticamente una redacción más persuasiva basada en tu historial y en el destinatario. Mientras navegas, entiende lo que buscas y puede resumirte documentos PDF, extraer información de videos o crear recordatorios sin que se lo pidas explícitamente.

Más aún: si tienes una reunión agendada en Calendar con un cliente, Gemini puede anticiparse, revisar tus últimas interacciones y proponerte puntos clave a mencionar, incluso si no lo pediste.

Lo que antes era ciencia ficción hoy es el nuevo estándar de productividad asistida.

Gemini Nano y Gemini Live: IA para el bolsillo y para el mundo real

Google también presentó Gemini Nano 2.5, el modelo optimizado para dispositivos móviles, que ahora funciona sin conexión en los procesadores más avanzados. Esto implica que funciones como subtitulado en tiempo real, correcciones gramaticales o traducciones simultáneas ya no requieren internet.

Pero lo más disruptivo fue Gemini Live: un sistema conversacional en tiempo real, que lee contexto visual y auditivo y puede mantener una conversación con el usuario mirando lo que tú ves. En otras palabras, la IA ahora puede ayudarte mientras cocinas, manejas o caminas, reconociendo lo que ocurre a tu alrededor.

Esta tecnología ya está integrada en las nuevas Pixel Smart Glasses (de las que hablaremos más abajo), pero Google planea incorporarla también en tablets, relojes y altavoces inteligentes.

Android 16: no es una evolución, es una mutación

Si Android 14 trajo mejoras visuales y Android 15 afinó la eficiencia energética, Android 16 reinventa el sistema operativo móvil desde la base. Google no lo ocultó: este no es “un Android más”. Este es el primer Android con IA integrada de forma orgánica, y se nota desde que enciendes el equipo.

La pantalla de inicio ya no es estática. Se adapta dinámicamente al momento del día, a tus rutinas y al contexto. Las apps más usadas cambian según la hora, tu ubicación y tu agenda. Si estás por salir al trabajo, el sistema te muestra la ruta más rápida, el clima, tus reuniones y tus mensajes clave.

Los widgets son ahora interactivos y conversacionales. Puedes dictarles órdenes por voz o por texto, y recibir respuestas en tiempo real. Todo sin abrir una app.

Incluso los ajustes del sistema se han vuelto inteligentes: si sueles activar el modo No Molestar al llegar al cine, Android 16 lo hará por ti sin que lo pidas. Si sueles bajar el brillo al leer de noche, se anticipará. La idea es que el sistema operativo aprenda de ti. Y según las primeras pruebas beta, lo está haciendo.

Pixel 10, Tensor G5 y el futuro de la computación móvil

Junto a Android 16, Google mostró el nuevo Pixel 10 Pro, que viene con el chip Tensor G5, fabricado por TSMC con arquitectura de 3 nm. Esta nueva generación de Tensor no solo mejora el rendimiento gráfico y la eficiencia energética, sino que fue diseñada en torno a Gemini Nano, lo que permite funciones avanzadas de IA directamente en el dispositivo.

El Pixel 10 incluye una función llamada “Intuition Mode”, que permite que el teléfono interprete patrones de uso para adelantarse a tus acciones. ¿Estás buscando una canción que escuchaste en la radio? Solo silba la melodía y el Pixel te dirá cuál es. ¿Te llega una notificación molesta mientras grabas un video? El sistema la silenciará automáticamente.

La cámara, por supuesto, también se beneficia de Gemini. El nuevo modo “Photorealistic Recompose” puede reencuadrar una foto mal tomada y reconstruirla con elementos reales tomados de la propia escena, no con IA generativa, sino con IA predictiva basada en frames capturados.

Todo esto, con un nuevo diseño más delgado, bordes metálicos y carga inalámbrica ultra rápida de 65W.

Smart glasses 2.0: el regreso inesperado

Sí, las smart glasses están de vuelta, y esta vez con potencia real. Google presentó un prototipo funcional de las Pixel Smart Glasses, unas gafas con diseño minimalista (parecen Ray-Ban), pero con capacidades increíbles: cámara frontal discreta, micrófono direccional, altavoces integrados en las patas, y la integración total de Gemini Live.

¿La promesa? Interacción manos libres con la IA. Puedes traducir en tiempo real lo que ves (ideal para viajeros), recibir notificaciones con visualización discreta, e incluso grabar o transmitir en vivo desde tu punto de vista, todo con comandos de voz o gestos oculares.

El dispositivo puede reconocer objetos, leer texto, y responder preguntas tipo: “¿qué significa esta palabra?”, “¿quién pintó ese cuadro?” o “¿cuál es el precio promedio de esta cámara?”.

Aunque aún no tiene fecha de lanzamiento al público, se confirmó que hay una edición para desarrolladores en Q4 2025. Y sí, será compatible con Android 16.

Project Astra: el cerebro visual del futuro

Además del hardware, Google mostró avances en su iniciativa Project Astra, una evolución del sistema de IA visual multimodal. Astra combina imagen, texto y contexto para ofrecer respuestas en tiempo real que no dependen solo del lenguaje, sino también del entorno.

Ejemplo real mostrado en I/O: un usuario señala con su cámara una vieja cámara analógica y pregunta: “¿Cómo funciona esto?” Astra no solo reconoce el objeto, sino que explica cómo cargar el rollo, qué tipo de película usa, y cómo tomar la foto. Todo en segundos, sin necesidad de teclear nada.

En otro demo, Astra ayuda a un usuario a resolver un problema de matemáticas escrito a mano en una pizarra, reconociendo los símbolos, interpretando el contexto y generando una explicación paso a paso.

Este sistema será la base de futuras integraciones en Google Lens, Google Search y los wearables del ecosistema Android.

Realidad extendida (XR): entre lo útil y lo espectacular

Google también dejó espacio para mostrar su visión del futuro de la computación espacial, una categoría donde compite con Apple (Vision Pro) y Meta (Quest 3). Su enfoque, sin embargo, es menos intrusivo y más ligero: realidad aumentada más que realidad virtual total.

Los nuevos desarrollos XR de Google apuntan a superponer información en tiempo real en entornos cotidianos: navegación asistida, datos contextuales en espacios físicos, traducción visual, o entrenamiento interactivo.

Aunque no se presentó un visor XR propio, Google confirmó alianzas con Samsung y Qualcomm para lanzar un dispositivo de realidad mixta antes de finales de 2025, bajo el paraguas de Android XR. Será compatible con Gemini Live, y tendrá funciones de colaboración remota, gaming en nube y soporte para apps educativas.

Todo está conectado: el ecosistema Android en 2025

Uno de los ejes centrales del evento fue la convergencia del ecosistema Android. Ahora, desde tu teléfono puedes controlar tu tablet, tus auriculares, tu TV y tus gafas inteligentes, todo con una sola interfaz y asistido por IA.

Además, Google presentó un nuevo estándar de emparejamiento universal: los dispositivos Android ahora pueden conectarse entre sí sin emparejamientos manuales, usando señales de proximidad, perfil de usuario y contexto de uso.

Esto permite que, por ejemplo, tu Pixel Tablet se convierta automáticamente en segunda pantalla si te acercas con tu Pixel 10, o que tus Pixel Buds cambien de dispositivo según lo que estás usando sin que tengas que tocar nada.

Conclusión: Google cambia las reglas del juego

Google I/O 2025 no fue solo una feria de tecnología: fue un manifiesto. La compañía dejó claro que ya no se trata de competir en apps o en cámaras. Se trata de construir un asistente inteligente que te entienda, te acompañe y anticipe tus necesidades.

La IA dejó de ser una función para volverse una capa invisible que conecta todo. Android 16 no es solo un sistema operativo, es un sistema cognitivo. Y los dispositivos ya no son gadgets aislados, sino extensiones inteligentes de nuestra mente y cuerpo.

Con Gemini, smart glasses, Android XR y Project Astra, Google quiere que el futuro no sea solo más digital… sino más humano.

Síguenos en Google News:Google News

Lo Último