Debería haber sido obvio que Google I/O 2025 estaría lleno de mermeladas, considerando que la compañía sintió la necesidad de celebrar un evento separado para cubrir todas sus noticias de Android. Pero Color Me sorprendió de que Google lograra una presentación de casi dos horas, llena de anuncios y revelaciones, principalmente sobre IA.
No todos los anuncios de IA son iguales, por supuesto. Algunas de las noticias estaban orientadas a usuarios empresariales y otras para los desarrolladores. Pero muchas de las características discutidas también están en camino a los dispositivos de los consumidores, algunas tan pronto como hoy. Estas son las actualizaciones en las que me concentro aquí: puede esperar probar estas características hoy, en las próximas semanas o en algún momento en el futuro cercano.
Gemini Live viene al iPhone
A principios de este año, Google lanzó Gemini Live para todos los usuarios de Android a través de la aplicación Gemini. La función le permite compartir la alimentación o la pantalla de su cámara con Gemini, por lo que puede ayudar a responder preguntas sobre lo que está viendo. A partir de hoy, Google ahora está llevando la función a los iPhones con la aplicación Gemini también. Mientras tenga la aplicación, puede compartir su cámara y pantalla con la IA, sin importar en qué plataforma se encuentre.
El modo AI es el futuro de la búsqueda de Google
Google ha estado probando el modo AI en búsqueda desde marzo. La función esencialmente convierte la búsqueda en Google en una experiencia de Gemini, lo que le permite apilar múltiples preguntas en una solicitud compleja. Según Google, su IA puede manejar la descomposición de su consulta y buscar en la web las fuentes más relevantes. El resultado, en teoría, es un informe completo que responde a todos los aspectos de su búsqueda, incluidos los enlaces a fuentes e imágenes.
El modo AI se está implementando para todos los usuarios, no solo los probadores, durante las próximas semanas. Pero no es solo la experiencia del modo AI que Google ha estado probando. La compañía también anunció nuevas funciones de modo AI en E/S.
Agrase múltiples búsquedas en uno
Primero, hay una búsqueda profunda, que multiplica el número de búsquedas que el modo AI generalmente haría para su consulta y genera un “informe de nivel experto totalmente citado” para usted. Todavía lo verificaría a fondo, ya que AI tiene el hábito de alucinar. El modo AI también está obteniendo acceso en vivo de Gemini, por lo que puede compartir su pantalla o cámara en la búsqueda.
Use “Modo de agente” como asistente personal del mundo real
Project Mariner también está llegando al modo AI. Google dice que tendrá acceso a “capacidades de agente”, lo que básicamente significa que puede confiar en la IA para completar las tareas por usted. Por ejemplo, podrá pedirle al modo AI que le encuentre “boletos asequibles para el juego de los Rojos de este sábado en el nivel inferior”, y el bot no solo lo buscará, sino que completará los formularios necesarios. Google dice que la funcionalidad se aplicará a los boletos de eventos, las reservas de restaurantes y las citas locales.
Puede ver eso en acción con el modo de agente, que teóricamente podrá ejecutar tareas complejas en su nombre. No sabemos mucho sobre cómo funcionará eso todavía, pero tenemos un claro ejemplo de la etapa de E/S de Google. Durante la presentación, el CEO de Alphabet, Sundar Pichai, encargó al modo de agente de Gemini para encontrar un apartamento con lavandería en la unidad, manteniendo un cierto presupuesto. Gemini luego se puso a trabajar, abriendo el navegador, levantando a Zillow, buscando apartamentos y reservando una gira.
El modo AI se extraerá de su historial de búsqueda anterior para brindarle resultados más relevantes. Eso incluye los resultados que se aplican a su paradero, por ejemplo, recomendaciones locales para un próximo viaje, así como las preferencias (si tiende a reservar lugares para comedor al aire libre, el modo AI puede recomendar cenar al aire libre cuando solicite encontrar reservas de cena).
Nuevas características de Géminis que llegan al espacio de trabajo
Google anunció una serie de nuevas funciones de Gemini en E/S, algunas de las cuales están llegando al espacio de trabajo.
Una de las características en las que Google se centró más fueron las respuestas inteligentes personalizadas en Gmail. Si bien Gmail ya tiene una función de respuesta inteligente con IA, esta va un paso más allá y basa sus respuestas en todos sus datos de Google. El objetivo es generar una respuesta que suena como si lo escribiera, e incluye todas las preguntas o comentarios que razonablemente podría tener para el correo electrónico en cuestión. En la práctica, no estoy seguro de por qué me gustaría dejar que AI me comunique todo por mí, pero la función estará disponible a finales de este año y primero para suscriptores pagados.
Si usa Google Meet con un plan pagado, espere ver que la traducción de discurso en vivo comience a implementarse hoy. La característica automáticamente llama a los hablantes en una llamada en un idioma de destino, como un traductor universal instantáneo. Digamos que hablas inglés y tu compañero de reunión habla español: escuchas que comienzan a hablar en español, antes de que una voz de IA se haga cargo de la traducción al inglés.
‘Pruébalo en’
Google ya no quiere que devuelva la ropa que solicite en línea. La compañía anunció una nueva característica llamada “Prueba en” que usa IA para mostrarle cómo se vería usar cualquier artículo de ropa que esté pensando comprar.
Esto tampoco es un mero concepto: Google está implementando “Pruébelo” hoy para los usuarios de Google Search Lab. Si desea obtener más información sobre la función y cómo usarla, consulte nuestra guía completa.
Android XR
Como sugirieron los rumores, Google habló un poco sobre Android XR, la experiencia de software de la compañía para gafas y auriculares. La mayoría de las noticias que compartió se anunció anteriormente, pero vimos algunas características interesantes en acción.
Por ejemplo, cuando se usa una de las gafas futuras con Android XR integrado, podrá acceder a un sutil HUD que puede mostrarle todo, desde fotos hasta mensajes y Google Maps. (Personalmente, el principal sorteo aquí para mí sería AR Google Maps mientras caminaba por una nueva ciudad). En el escenario, también vimos una demostración en vivo de traducción del habla, que Android XR superponía una traducción al inglés en la pantalla mientras dos presentadores hablaron en diferentes idiomas.
¿Qué piensas hasta ahora?
Si bien no hay una línea de tiempo verdadera sobre cuándo puede probar Android XR, la gran noticia de Google es que está funcionando con Warby Parker y Gentle Monster para hacer anteojos con el servicio incorporado.
Veo 3, Imagen 4 y Flow
Google presentó dos nuevos modelos de generación de IA en E/S este año: Imagen 4 (imágenes) y VEO 3 (video).
Imagen 4 ahora genera imágenes de mayor calidad con más detalles que Imagen 3, el modelo de generación de imágenes anterior de Google. Sin embargo, la compañía señaló específicamente las mejoras de Imagen 4 con la generación de texto. Si le pide al modelo que genere un póster, por ejemplo, Google dice que el texto será preciso para la solicitud y estilística.
Google inició el programa con videos generados por VEO 3, por lo que es seguro decir que la compañía está bastante orgullosa de su modelo de generación de videos. Si bien los resultados son nítidos, coloridos y ocasionalmente repletos de elementos, definitivamente todavía sufre de las peculiaridades habituales y los problemas con el video generado por IA. Pero la historia más grande aquí es “Flow”, el nuevo editor de videos de IA de Google. Flow usa VEO 3 para generar videos, que luego puede ensamblar como cualquier editor no lineal. Puede usar Imagen 4 para generar un elemento que desee en una toma, luego solicite a Flow para agregarlo al siguiente clip. Además de la capacidad de cortar o expandir una toma, puede controlar el movimiento de la cámara de cada disparo de forma independiente.
Es el más “impresionante” que esta tecnología me ha parecido, pero fuera de un tablero de cuentos de alta tecnología, no puedo imaginar el uso de esto. Tal vez estoy en la minoría, pero ciertamente no quiero ver videos generados por IA, incluso si se crean a través de herramientas similares a las que usan los creadores de videos humanos.
VEO 3 solo está disponible para Google AI Ultra suscriptores, aunque el flujo está disponible en capacidad limitada con suscriptores VEO 2 a AI Pro.
Dos nuevas características de Chrome
Los usuarios de Chrome pueden esperar dos nuevas características después de la E/S de Google. Primero, Google está trayendo a Gemini directamente al navegador, no es necesario abrir el sitio de Gemini. En segundo lugar, Chrome ahora puede actualizar sus contraseñas antiguas en su nombre. Esta característica se lanzará a finales de este año, aunque deberá esperar a que los sitios web ofrezcan soporte.
Una nueva forma de pagar la IA
Finalmente, Google ofrece nuevas suscripciones para acceder a sus funciones de IA. Google AI Premium ahora es AI Pro, y sigue siendo en gran medida igual, menos la nueva capacidad de acceder al flujo y Géminis en Chrome. Todavía cuesta $ 20 por mes.
La nueva suscripción es Google Ai Ultra, que cuesta la friolera de $ 250 al mes. Por ese precio, obtienes todo en Google AI Pro, pero con los límites más altos para todos los modelos de IA, incluidos Gemini, Flow, Whisk y NotebookLM. Obtiene acceso a Gemini 2.5 Pro Deep Think (el modelo de razonamiento más nuevo y avanzado de la compañía), VEO 3, Project Mariner, YouTube Premium y 30TB de almacenamiento en la nube. Qué trato.








