AI para alimentar una nueva búsqueda, asistente personal e incluso experiencias de compra automatizadas

Puede que no sea tan obvio como las guerras de telecomunicaciones o las guerras de teléfonos inteligentes, pero en este momento el espacio más competitivo de la tecnología es la inteligencia artificial.
Esta mañana, Google está reclamando una posición de liderazgo en AI con sus modelos de IA Gemini que alimentan una variedad de nuevas características y productos en las ofertas de Google.
El CEO de Google, Sundar Pichai, hablando en la Conferencia de Desarrolladores de la compañía, Google I/O, dijo que “más inteligencia está disponible, para todos, en todas partes”. La inteligencia artificial es un espacio competitivo en la industria de la tecnología. (Google)
“Y el mundo está respondiendo, adoptando IA más rápido que nunca”, dijo.
“Lo que todo este progreso significa es que estamos en una nueva fase del cambio de plataforma AI.
“Donde décadas de investigación ahora se están convirtiendo en realidad para personas, empresas y comunidades de todo el mundo”.
Desde una perspectiva de Wall Street, este es un gran problema.
Google compite con compañías que cotizan en bolsa como Microsoft y Meta, mientras que el creador de ChatGPT, OpenAI, tiene su parte justa del sentimiento público en AI.
Es por eso que Google estuvo tan interesado hoy en mostrar puntos de referencia que demuestran el fuerte rendimiento de sus modelos Géminis sobre la competencia.
Para los usuarios de IA y, de hecho, los usuarios de Internet en general, hay algunas actualizaciones emocionantes de Google que podrían cambiar la forma en que interactuamos con Internet en general.
En primer lugar, Google está lanzando (en los Estados Unidos primero) un nuevo “modo de IA” en su motor de búsqueda principal.
El modo AI será su propia pestaña en la página de Google junto con noticias, imágenes y otros.
Google estaba ansioso por mostrar puntos de referencia que demuestran el fuerte rendimiento de sus modelos Gemini más allá de la competencia. (Google)
Sobre la base del éxito de sus resúmenes de IA en la búsqueda, el modo AI permite a los buscadores ser mucho más completos en su consulta de búsqueda y recibir un resultado de búsqueda mucho más detallado.
Piénselo de esta manera: en lugar de hacer una búsqueda y obtener una lista de resultados que sean enlaces a otros sitios web que puede leer, en modo AI puede hacer una solicitud y esencialmente Gemini de Google no solo encontrará la información que está buscando, sino que la compilará en lo que se verá como un informe integral sobre la consulta.
Este es un cambio completo en la forma en que funciona Internet, pasando de una consulta a una lista, a visitar enlaces en línea, a simplemente hacer una pregunta y obtener una respuesta.
Este es el futuro para la búsqueda de información, la investigación y otras formas de consultas.
Del mismo modo, Google está buscando cambiar la forma en que compramos en línea.
Google planea cambiar la experiencia de compra para los clientes. (Google)
En este momento, hay miles de millones de productos que aparecen como “productos” en una búsqueda en Google.
Usando lo que Google llama “compras de agente”, podrá no solo ser más detallado sobre su búsqueda de compras, sino que también coloque un reloj de precio en un producto.
Si el precio listado es más alto de lo que esperaba, o está dispuesto a pagar, puede establecer un precio al que compraría.
Luego, cuando o si el precio se reduce, se le notifica la reducción y la opción de “comprar para mí”, lo que enviará a su agente de compras de Google a la tienda en línea para hacer la compra por usted, porque tiene su información de pago, detalles de envío y solicitud de compra personalizada.
Una de las demostraciones más futuristas en Google I/O de hoy fue el asistente personal en tiempo real, que Google imagina que existirá dentro de su aplicación Gemini Live.
Si el precio listado es más alto de lo que esperaba, o está dispuesto a pagar, puede establecer un precio al que compraría. (Google)
Demostrando el concepto en un video que muestra a un hombre tratando de arreglar su bicicleta, el hombre estaba teniendo una conversación en tiempo real con su asistente de Géminis cuyo lenguaje natural y discurso lo hicieron sonar como una persona real.
Pudo usar la cámara del teléfono para darle “ojos” al asistente para ayudarlo, y el asistente de Géminis también pudo asumir tareas para realizar en segundo plano, como hacer una llamada telefónica a una tienda de bicicletas para verificar la disponibilidad de una parte.
Google ha demostrado esa verdadera tecnología de llamadas humanas en humano hace siete años, pero integrarla en un asistente en tiempo real podría cambiar el juego del asistente de IA con AI capaz de aprovechar no solo la información disponible en Internet, sino en tiempo real de personas reales en el otro extremo del teléfono.
Google también demostró su última iteración de lo que llaman “Android XR”, un sistema operativo para auriculares o gafas de realidad aumentada.
Un espacio de consumo actualmente dominado por la asociación de Meta con Rayban, parece más probable que nunca que la idea original de “Google Glass” hace más de una década se concretará de alguna forma muy, muy pronto.
Trevor Long viajó a San Francisco con el apoyo de Google Australia.