Los teléfonos Pixel 10 de Google hicieron su debut oficial esta semana, y con ellos, un montón de características generativas de IA horneadas directamente en la aplicación de la cámara. Es normal que los teléfonos usen “fotografía computacional” en estos días, un término elegante para todos esos efectos de iluminación y postprocesamiento que agregan a sus fotos mientras las toma. Pero la IA convierte la fotografía computacional en otra bestia por completo, y es uno que no estoy seguro de que estemos listos.
Los nerds tecnológicos les encanta preguntarnos “¿Qué es una foto?” Un poco bromeando que cuanto más procesamiento posterior se agrega a una imagen, menos se parece a todo lo que realmente sucedió en la vida real. Los cielos nocturnos son demasiado brillantes, las caras que tienen menos imperfecciones de las que mostrarían un espejo, ese tipo de cosas. La IA generativa en la aplicación de la cámara es como el jefe final de ese enigma moral. Eso no quiere decir que estas características no son útiles, pero al final del día, este es un debate filosófico tanto como técnico.
¿Se supone que las fotos se parecen a lo que el fotógrafo realmente estaba viendo con los ojos, o se supone que se vean lo más atractivos posible, el realismo debe ser condenado? Ha sido bastante fácil mantener estas preguntas en los círculos más nitpicky por ahora, ¿a quién realmente le importa si el cielo es demasiado neón si ayuda a que su foto establezca más? Pero si AI va a comenzar a agregar objetos o fondos nuevos a sus fotos, incluso antes de abrir la aplicación Gemini, es hora de que todos comiencen a preguntarse a sí mismos qué quieren que salgan de sus teléfonos con las cámaras de sus teléfonos.
Y la forma en que Google está usando IA en sus teléfonos más nuevos, es posible que termine con una foto de IA y realmente no lo sepas.
Pro Res Zoom
Tal vez la más atroz de las nuevas incorporaciones de cámara AI de Google es lo que está llamando a Pro Res Zoom. Google anuncia esto como “100x zoom”, y funciona como la tecnología totalmente ficticia de “zoom y mejora” que podría ver en los procedimientos policiales de la vieja escuela.
Esencialmente, en un Pixel 10 Pro o Pro XL, ahora podrá impulsar la lente de zoom por 100 veces, y en la superficie, la experiencia no será diferente a un zoom de software normal (que depende de la recorte, no la IA). Pero dentro del procesador de su teléfono, todavía tendrá los mismos problemas que hacen que “zoom y mejore” parezca tan ridículo en programas como CSI.
En resumen, el problema es que no puede inventar la resolución que la cámara no capturó. Si ha ampliado tanto que su lente de cámara solo vio píxeles vagos, entonces nunca podrá saber con certeza qué estaba realmente allí en la vida real.
Crédito: Google
Es por eso que esta característica, a pesar de parecer un zoom normal y no AI en la superficie, es más una edición de IA que un zoom real real. Cuando usa Pro Res Zoom, su teléfono ampliará todo lo que pueda, luego use los píxeles borrosos que ve como un mensaje para un modelo de difusión en el dispositivo. El modelo adivinará cómo se supone que deben verse los píxeles y editar el resultado en su toma. No capturará la realidad, pero si tienes suerte, podría estar lo suficientemente cerca.
Para ciertos detalles, como formaciones rocosas u otros objetos inanimados mundanos, eso podría estar bien. Sin embargo, para caras o puntos de referencia, podría irse con la impresión de que acabas de obtener un gran primer plano de, por ejemplo, el cantante principal en un concierto, sin saber que tu “Zoom” era básicamente una solicitud de Géminis elegante. Google dice que está tratando de reducir las alucinaciones, pero si una foto escupida de Gemini es algo que no está incómodo publicar o incluir en un proyecto creativo, esto tendrá los mismos problemas, excepto que, debido a la marca, es posible que no se dé cuenta de que la IA estaba involucrada.
Afortunadamente, Pro Res Zoom no reemplaza por completo el zoom no AI: el zoom más allá del límite habitual de zoom de hardware 5x ahora le dará dos resultados para elegir, uno con el zoom de Pro Res se aplica y otro sin. Escribí sobre esto con más detalle si está interesado, pero incluso con las opciones que no son AI disponibles, la IA no está claramente indicada mientras está haciendo su selección.
Ese es un enfoque mucho más informal para la IA que Google en el pasado. Las personas pueden estar acostumbradas a alterar sus fotos cuando lo solicitan, pero tenerlo aplicado automáticamente a través de la lente de su cámara es un nuevo paso.
Pedir editar
Sin embargo, la integración informal de IA no se detiene una vez que te has tomado la foto. Con Pixel 10, ahora puede usar un lenguaje natural para pedirle a AI que altere sus fotos por usted, desde la aplicación Google Photos. Simplemente abra la foto que desea cambiar, toque el icono Editar y verá un cuadro de chat que le permitirá usar el lenguaje natural para sugerir ajustes a su foto. Incluso puede hablar sus instrucciones en lugar de escribirlas, si lo desea.
En la superficie, no me importa esto. Google Photos tiene docenas de diferentes íconos de edición, y puede ser difícil para la persona promedio saber cómo usarlos. Si desea aplicar un cultivo o filtro simple, esto le brinda una opción para hacerlo sin pasar por lo que podría ser una interfaz intimidante.
Crédito: Michelle Ehrhardt
El problema es que, además de usar herramientas de Google Photos de la vieja escuela, solicitar editar también le permitirá sugerir cambios más extravagantes, y no se delineará claramente cuando use AI para lograr esos cambios. Puede pedirle a la IA que intercambie el fondo de su foto por una completamente nueva, o si desea un cambio menos drástico, puede pedirle que elimine los reflejos de una toma tomada a través de una ventana. El problema? Muchas de estas ediciones requerirán una IA generativa, incluso las aparentemente menos destructivas como la eliminación de la mirada, pero tendrá que usar su intuición para saber cuándo se ha aplicado.
Por ejemplo, aunque generalmente verá un botón “AI mejorado” entre las ediciones sugeridas de Google Photos, no es la única forma de obtener IA en su toma. Solicite editar hará todo lo posible para honrar cualquier solicitud que haga, con cualquier herramienta a las que tenga acceso, y dada una experiencia práctica que tuve con ella en una demostración con Google, esto incluye la generación de IA. Puede ser obvio que usará AI para, digamos, “Agregue un Mercedes detrás de mí en esta selfie”, pero podría ver a un usuario menos inteligente de la tecnología suponiendo que podría pedirle a la IA que “alejar” sin saber que cambiar una relación de aspecto sin recortar también requiere usar IA generativa. Específicamente, requiere pedirle a una IA que imagine lo que podría haber rodeado lo que había en tu disparo en la vida real. Dado que no tiene forma de saber esto, viene con un riesgo inherentemente alto de alucinación, sin importar cuán humilde suene “zoom”.
Dado que estamos hablando de una herramienta diseñada para ayudar a los usuarios menos tecnológicos, me preocupa que haya una buena posibilidad de que accidentalmente termine generando ficción, y piense que es una toma totalmente inocente y realista.
¿Qué piensas hasta ahora?
Entrenador de cámara
Luego está el entrenador de cámara. Esta característica también hornea la IA en la aplicación de su cámara, pero en realidad no pone IA en sus fotos. En cambio, utiliza IA para sugerir el encuadre y los ángulos alternativos para lo que sea que su cámara esté viendo, y te entrena sobre cómo lograr esos disparos.
Crédito: Michelle Ehrhardt
En otras palabras, es muy que vea lo que sea. Las sugerencias del entrenador de la cámara son solo ideas, y aunque seguir ellas requiere más trabajo de su parte, puede estar seguro de que cualquier foto que se pueda ver exactamente como lo que vio en su visor, sin AI agregado.
Eso inmediatamente borra la mayoría de mis preocupaciones sobre las fotos irreales que se presentan como verdad absoluta. Existe la posibilidad de que el entrenador de cámara pueda sugerir una foto que no sea realmente posible, digamos, si quiere que entres a un área restringida, pero lo peor que vas a obtener allí es frustración, no una foto que pasa la generación de IA como si fuera lo mismo que, digamos, se acerca.
La gente debe saber cuándo están usando AI
No voy a resolver la “¿Qué es una foto?” Pregunta en una tarde. La verdad es que algunas fotos están destinadas a representar el mundo real, y se supone que algunas parecen estéticamente agradables. Lo entiendo. Si AI puede ayudar a que una foto se vea más atractiva visualmente, incluso si no es completamente fiel a la vida, puedo ver la apelación. Eso no borra ninguna preocupación ética potenciales sobre de dónde provienen los datos de capacitación, por lo que aún le pediría que sea diligente con estas herramientas. Pero sé que señalar una foto y decir “Eso nunca sucedió” no es una bala mágica retórica.
Lo que me preocupa es cuán casualmente se implementan las nuevas características de IA de Google, como si fueran idénticas a la fotografía computacional tradicional, que siempre usa su imagen real como base, en lugar de inventar cosas. Como alguien que todavía desconfía de la IA, ver la generación de imágenes de IA disfrazada de “100x zoom” inmediatamente levanta mis alarmas. No todos prestan atención a estas herramientas como yo, y es razonable que esperen que estas características hagan lo que dicen sobre la lata, en lugar de introducir el riesgo de alucinación.
En otras palabras, las personas deben saber cuándo se está utilizando AI en sus fotos, para que puedan tener confianza cuando sus tomas son realistas y cuándo no lo son. Refiriéndose a Zoom usando una lente de teleobjetivo como “5x Zoom” y Zoom que capa AI sobre un montón de píxeles como “100x Zoom” no hace eso, y tampoco construir un editor de lenguaje natural en su aplicación de fotos que no le indique claramente cuándo está usando IA generativa y cuándo no es así.
Google es consciente de este problema. Todas las fotos tomadas en el Pixel 10 ahora vienen con credenciales de contenido C2PA incorporadas, lo que dirá si AI se usó en los metadatos de la foto. Pero, ¿cuándo es la última vez que realmente revisaste los metadatos de una foto? Herramientas como solicitar editar están claramente hechas para ser infalibles, y esperan que los usuarios se frocan manualmente a través de cada una de sus fotos para ver cuáles fueron editadas con IA y cuáles no eran realistas, especialmente si estamos haciendo herramientas que se supone específicamente que los usuarios toman menos pasos antes de obtener su foto final.
Es normal que alguien espere que la IA se use cuando abra la aplicación Gemini, pero incluye en herramientas previamente que no es AI como la aplicación de la cámara necesita más fanfarria que las credenciales C2PA silenciosas y una oración vaga en una presione soltar. Notificar a un usuario cuando está a punto de usar AI debe ocurrir antes de tomar su foto, o antes de hacer su edición. No debe ser marcado en silencio para que encuentren más tarde, si eligen ir a buscarlo.
Otras herramientas fotográficas de IA, como las de Adobe, ya hacen esto, a través de un marca de agua simple aplicado a cualquier proyecto utilizando la generación de IA. Si bien no le diré qué pensar sobre las imágenes generadas por IA en general, diré que no debe ser puesto en una posición en la que está haciendo una por accidente. De las innovaciones de cámara de inteligencia artificial de Google, diría que Camera Coach es el único que hace eso. Para un gran lanzamiento nuevo del Creador de Android, un ecosistema que Google promocionó con orgullo como “abierto” durante el hecho de este año, una tasa de accesorios de una de las tres de transparencia no es lo que esperaría.