El modo AI de Google gana la popular búsqueda de la cámara a medida que el despliegue se expande a más usuarios

Resumen
Las capacidades multimodales de Lens ahora se integran en el modo AI de Google, permitiendo que los usuarios interactúen con imágenes y texto sin problemas dentro de las conversaciones. El modo AI ahora ofrece más respuestas “matizadas” y “contextualmente relevantes” en la aplicación Google en Android e iOS. Google está expandiendo el modo AI a millones de usuarios más de laboratorios en los Estados Unidos, yendo más allá de Google One AI Premium suscriptores.
El advenimiento de la IA generativa en la búsqueda de Google no recibió el tipo de respuesta que a Google le hubiera gustado, ya que muchos alegaron que ha empeorado la experiencia de búsqueda. Sin embargo, con la introducción de Gemini 2.0 en descripción general de la IA, Google parece haber resuelto algunos problemas, y la compañía afirma que la búsqueda de IA de 2 potencias de Gemini ahora puede producir respuestas de mayor calidad.
Gemini 2.0 también está en el corazón de la capacidad experimental de “modo AI” de Google Search, lanzada el mes pasado para los usuarios de laboratorios en los EE. UU., Aprovechando una experiencia más similar a Chatbot donde puede hacer preguntas y obtener respuestas detalladas con imágenes y enlaces a fuentes originales. Ahora, además, puede disfrutar del beneficio de las capacidades multimodales de Lens en modo AI, que también es más accesible para los usuarios en los EE. UU.
Relacionado 5 formas simples de sobrealimentar su Android con Google Gemini
¿El asesino de asistente de Google?
¿Qué significan para usted las capacidades multimodales de Lens en modo AI?
“Multimodal”, en palabras simples, significa múltiples tipos de datos. Por ejemplo, en Google Lens, puede usar la cámara de su teléfono para capturar lo que ve a su alrededor o cargar imágenes almacenadas localmente para hacer preguntas relacionadas con ellas y obtener soluciones tanto en formularios visuales como de texto. Por ejemplo, dependiendo de la solicitud. Puede reconocer el texto en una imagen y traducirlo a un idioma diferente, ayudarlo a completar la tarea y resolver un problema matemático complicado, o incluso ayudarlo a comprar artículos similares a los de la imagen al darle una lista de enlaces de compras.
Ahora que estas poderosas capacidades multimodales se están expandiendo al modo AI, no tiene que cambiar a la página de inicio de la aplicación de Google para acceder a la lente en el medio de una conversación importante en modo AI para comprender rápidamente cosas como cómo los objetos en la imagen se relacionan entre sí, cómo están organizados, dónde puede comprar otros similares y más. Según Google, esto hace que la búsqueda en modo AI “matizada” y “contextualmente relevante” en la aplicación Google en Android e iOS.
Google está implementando el modo AI a más personas en los EE. UU.
El modo AI era accesible para los usuarios de Google One Ai Premium en los EE. UU. En el lanzamiento, luego se expandió a usuarios gratuitos unos días después, pero solo para las personas que se unieron a la lista de espera en Google Labs. Si eres uno pero no tienes acceso a él, vale la pena intentarlo ahora, ya que Google ha sacado a más personas de la lista de espera para expandir el servicio a “millones más de usuarios de laboratorios” en los Estados Unidos.
La opción Modo AI aparece en el lado izquierdo de la pestaña Todos en la aplicación Google y en la web, y esa es la única forma de acceder a la herramienta por ahora. En otras palabras, también significa que debe volver a la pantalla de inicio nuevamente si desea comenzar de nuevo en modo AI. Este sin duda no es el enfoque más conveniente, pero Google ya ha comenzado a trabajar para solucionar este problema introduciendo un botón de acceso directo en la interfaz del modo AI para iniciar rápidamente una conversación. Al igual que el soporte de la lente, el botón de acceso directo del modo AI también está diseñado para guardarlo de la molestia y ser más eficiente en lo que está haciendo.