Resumen
El modo de video en vivo de Gemini Live se está expandiendo a más androides, que ahora se llega a la serie Galaxy S25. Las pruebas iniciales indican que el video “en vivo” está basado en instantáneas, que actúa como la lente de Google conversacional, no el análisis continuo. Samsung dice que la característica se está implementando en todos los dispositivos de la serie S25 a “sin costo adicional”.
Las capacidades de análisis de alimentación de cámara en tiempo real de Google Gemini Live, esencialmente el proyecto Astra de E/S 2024, ahora comienzan a aterrizar en más dispositivos Android. La función de asistente multimodal, que puede comprender las indicaciones de audio y video al mismo tiempo, comenzó a aterrizar en dispositivos seleccionados hace aproximadamente dos semanas.
Avance rápido a fines de la semana pasada, la característica comenzó a funcionar para algunos usuarios de Pixel, y ahora está comenzando a dar a conocer su presencia en el último buque insignia de Samsung.
El modo de cámara en tiempo real de Gemini Live relacionado obtiene una versión más amplia
Sin embargo, solo para los suscriptores avanzados de Gemini
Llegando ahora a la serie Galaxy S25, “Real Time Visual AI” a través de Gemini Live ahora es gratuita para todos los usuarios de la serie Galaxy S25, incluso si no tienen una suscripción avanzada de Gemini. Según Samsung, para los usuarios de S25, la funcionalidad viene “sin costo adicional”. Actualmente es incierto si esa es solo una forma astuta de decir que “su nuevo dispositivo ya viene con una promoción avanzada Gemini gratuita” y, por lo tanto, la funcionalidad viene “sin costo adicional”, o si el análisis de alimentación de cámara en tiempo real de Gemini Live realmente ahora para usuarios no avanzados.
Por lo que vale, puedo ver el modo de video en vivo en una cuenta que se suscribe a Gemini Advanced. Mi cuenta gratuita, por otro lado, todavía no ha aparecido la nueva función.
Aunque bienvenido, la implementación actual se siente como un mosaico de diferentes tecnologías. En nuestro breve tiempo usándolo, el aspecto ‘en vivo’ del modo de video no era realmente consistente, y parecía que la característica no estaba constantemente mirando y analizando la alimentación del video. En cambio, la característica parece capturar una instantánea de lo que la cámara ve en el momento en que se plantea una consulta. .
Por ejemplo, pedirle a Gemini Live que cuente los dedos detenidos en el tiempo real muestra que la herramienta no procesa continuamente la alimentación de video. Aparentemente basa su respuesta en la instantánea que se necesita cuando se consulta. Así que esencialmente, en su implementación actual, el modo de video de Gemini Live podría ser Google Lens con un asistente de conversación adjunto.
Del mismo modo, en otros entornos, como en un automóvil, pudo analizar que estaba en un vehículo en movimiento (asiento del pasajero), aunque constituía el nombre de la calle que me estaba acercando. En un ejemplo diferente, decía que me estaba acercando a una carretera que estaba realmente cerca, pero no estaba conduciendo hacia él. Si bien no está completamente seguro, podría ser que la herramienta AI obtenga información de Google Maps cuando en entornos dinámicos como un vehículo en movimiento.
Según Google, tiene la intención de extender la funcionalidad a los dispositivos Android 10+ en el futuro cercano.








