Google I/O 2025 convierte Gemini en el nuevo sistema operativo IA

Por Tirso Maldonado La conferencia anual «Google I/O 2025» ha confirmado lo que ya intuíamos: la inteligencia artificial ha dejado de ser una tecnología complementaria, para convertirse en la interfaz principal de interacción entre personas, sistemas y conocimientos. Más que presentar una lista de novedades, Google ha dejado clara su estrategia: convertirse en el ecosistema IA por defecto….

Por Tirso Maldonado

La conferencia anual «Google I/O 2025» ha confirmado lo que ya intuíamos: la inteligencia artificial ha dejado de ser una tecnología complementaria, para convertirse en la interfaz principal de interacción entre personas, sistemas y conocimientos. Más que presentar una lista de novedades, Google ha dejado clara su estrategia: convertirse en el ecosistema IA por defecto. Desde la búsqueda hasta el correo, desde las compras hasta el desarrollo de aplicaciones, todo está pasando por un filtro de inteligencia. Y esta vez ese filtro se llama Gemini.

En este análisis estructurado, te resumo lo más relevante, agrupado por áreas, para que puedas detectar oportunidades, inspirarte y entender por dónde van los tiros.

1. Búsqueda y comercio: la IA transforma cómo encontramos, compramos y decidimos.

Google Search se rediseña por completo con el AI Mode, disponible ya en Estados Unidos. Este nuevo modo permite resumir contenido, comparar productos, responder consultas complejas y hasta iniciar procesos de compra sin salir del buscador. Es una experiencia conversacional, contextual y más visual cada vez.

En la misma línea, la función de compra con IA evoluciona con tres componentes clave.

  • Panel visual de búsqueda de productos: resultado de una técnica llamada query fan-out, muestra imágenes y listas altamente personalizadas, ideales para búsquedas complejas.
  • Compra asistida (buy for me): con Google Pay y Project Mariner, la IA no solo recomienda, sino también compra por ti, si así lo configuras.
  • Prueba virtual de ropa: un paso más hacia la integración entre el comercio electrónico y la experiencia física simulada.

Además, Google comienza a integrar anuncios dentro del AI Mode, etiquetados como sponsored, en un test piloto que redefine la monetización en interfaces conversacionales.

2. Google Workspace: productividad aumentada con Gemini en cada aplicación.

En el entorno empresarial y colaborativo, Google Workspace no se queda atrás. La IA está ahora presente en todos los rincones.

  • En Gmail, Gemini permite respuestas más personalizadas, gestiona el tono de los correos, limpia la bandeja de entrada y facilita fijar reuniones con personas externas.
  • En Google Docs, los documentos se vuelven más inteligentes, con enlaces a informes y datos que Gemini utiliza como referencia para escribir mejor.
  • Google Vids y Google Slides se nutren de Imagen 4 y Gemini, para crear presentaciones audiovisuales con scripts automáticos, avatares y mejoras en el audio (eliminación de muletillas, balanceo sonoro).
  • Google Meet ofrece ahora traducción de voz en tiempo real, con tecnología de DeepMind, manteniendo la voz original. La promesa: videollamadas fluidas en múltiples idiomas sin barreras.

Mención especial merece Google Beam, el nuevo nombre de Project Starline. Esta plataforma de teleconferencia 3D, desarrollada en colaboración con HP, será lanzada a finales de año e integrará Meet y Zoom. ¿El objetivo? Una experiencia inmersiva en tiempo real, que desafía los límites de la videollamada convencional.

3. Gemini app y el avance «agéntico».

Si el 2024 fue el año del copiloto, en Google I/O 2025 es el año del agente. La app Gemini evoluciona con funciones que van mucho más allá del chat.

  • Gemini Live  permite ahora compartir pantalla y cámara, ofreciendo respuestas verbales y contextuales a lo que ves, gracias a Project Astra.
  • Las integraciones Astra permiten a Gemini crear eventos en Calendar, generar rutas en Maps o programar tareas en Tasks, directamente desde la conversación.
  • Con Deep Research puedes subir documentos (PDF, imágenes) y Gemini genera informes, cruzando tus datos con información pública.
  • Para estudiantes o autodidactas, se añaden exámenes personalizados y rutas de refuerzo, según tus errores.

Además, Gemini se integra en Chrome como un asistente de navegación contextual, con funciones avanzadas de análisis de contenido, resumen y navegación automatizada en desarrollo.

Y ojo al dato: ya hay 400 millones de usuarios mensuales en la app Gemini. El nuevo sistema operativo no es Android, sino una capa IA personalizada, que vive en tu dispositivo.

4. NotebookLM: del resumen al conocimiento multimedia.

NotebookLM da un salto cualitativo. Ahora el asistente de investigación…

  • genera resúmenes en formato pódcast (audio overviews), que puedes ajustar en duración;
  • ofrece Video Overviews, transformando notas complejas en presentaciones visuales.
  • lanza sus propias apps móviles (Android/iOS), con soporte offline, modo oscuro y capacidad de integrar fuentes externas como YouTube o PDF.

Esta evolución lo posiciona como un organizador cognitivo, ideal para investigadores, estudiantes o equipos que trabajan con gran volumen de datos no estructurados.

5. Modelos de IA, creatividad y suscripciones.

Google presenta avances importantes en sus modelos fundacionales.

  • Gemini 2.5 Pro, con modo Deep Think, introduce razonamiento multiescenario para tareas más complejas.
  • Gemini 2.5 Flash, ahora modelo por defecto, mejora el rendimiento y la velocidad con menor latencia.
  • Imagen 4 y Veo 3 (generadores de imágenes y video) ofrecen realismo avanzado, incluyendo generación de sonido y marca de agua SynthID, para mitigar el deepfake.
  • Flow, herramienta para cineastas, permite crear escenas, controlar cámaras y editar contenido audiovisual desde prompts.

Todo esto se agrupa bajo dos nuevas suscripciones.

  • Google AI Pro ($20/mes): acceso a herramientas básicas avanzadas.
  • Google AI Ultra ($250/mes): acceso completo a todos los modelos, funciones experimentales y 30 TB de almacenamiento en la nube.

6. Hardware e interfaces del futuro: IA que se lleva puesta.

Google también mira al futuro físico.

  • Las gafas inteligentes Project Astra están en desarrollo junto a Warby Parker, Samsung y Gentle Monster. Con capacidades de traducción, navegación y reconocimiento visual, prometen ser el gran lanzamiento pos 2025.
  • La plataforma Android XR avanza con nuevos emuladores y una experiencia inmersiva unificada, pensada para gafas, móviles y tablets.
  • Wear OS 6 mejora en diseño dinámico, eficiencia y sincronización visual con apps. Incluye recursos para desarrolladores (guías, archivos Figma, etc.).

Con estas iniciativas, Google amplía el campo de juego más allá de la pantalla y entra en el territorio de la experiencia extendida, donde los sentidos y el contexto lo son todo.

El mensaje de Google I/O 2025 es claro: la IA no es una funcionalidad, es una capa que se integra en cada rincón de la experiencia digital. Gemini ya no es un modelo, es el nuevo sistema operativo conversacional de Google. La búsqueda se convierte en conversación. El correo en asistente. Los documentos en procesos vivos. Y las plataformas en ecosistemas «agénticos» capaces de hacer, decidir y anticipar.

¿El reto? La adopción no será solo tecnológica, sino cultural. ¿Estamos listos para delegar más, para confiar en sistemas que nos entienden —o eso prometen— mejor que nosotros mismos? Si algo deja claro esta edición es que Google no quiere competir con otras IA: quiere ser la IA que te acompaña en todo momento.