Home Tecnología Aparentemente, las cámaras de píxeles comienzan a sentirse bien, y no en...

Aparentemente, las cámaras de píxeles comienzan a sentirse bien, y no en el buen sentido

68
0

Resumen

Las quejas de los usuarios de Pixel que dicen que las fotos de los sobreprocesos de su dispositivo han comenzado a llegar. Un usuario de Reddit destacó este problema utilizando tomas de lado a lado de su automóvil tomadas con un Pixel 9 Pro y un Pixel 3 más antiguo, que muestra cómo el dispositivo más nuevo cambió inexactamente el color naranja brillante del automóvil a rojo. A pesar de probar varias configuraciones como captura sin procesar y deshabilitar Ultra HDR, los usuarios no encontraron solución, y muchos están molestos, no hay opción para deshabilitar la mejora automática.

Los teléfonos Android se han avergonzado durante mucho tiempo por sus cámaras, a pesar de que a menudo presentan algunos de los hardware más avanzado del mercado. Siempre se han enfrentado a iPhones, a pesar de que normalmente ofrecen especificaciones con las que los usuarios de Apple solo pueden soñar. Pero los teléfonos de Google Pixel han ayudado a cambiar esa narrativa, destacando constantemente su rendimiento excepcional de la cámara.

Aunque rara vez puede equivocarse con la cámara de un iPhone, los usuarios de Apple han expresado bastante una queja específica durante mucho tiempo. Los iPhones tienden a fotos de mejora automática, y en lugar de “mejorar” una toma, a menudo empeora las cosas. El culpable es una característica llamada Deep Fusion, que con frecuencia sobrecarga las imágenes, lo que lleva a colores inexactos, texturas demasiado afiladas y, en el caso de los selfies, los tonos de la piel lavados.

Relacionado 7 características de la cámara de píxel de Google que probablemente no esté utilizando (pero debería)

Gemas de cámara ocultas para su teléfono Pixel

Desafortunadamente, parece que Google decidió sacar una página del libro de jugadas de Apple, y los usuarios de Pixel están lejos de ser satisfechos.

Los usuarios de Pixel están hartos de la “función” de la cámara de sobreprocesamiento de Google

Un usuario frustrado de Reddit, U/ABCDE__EDCBA, tomó el subreddit R/Googlepixel para quejarse de que hay una diferencia significativa entre lo que ve en el visor de su Pixel 9 Pro (y en la vida real) cuando están tomando una foto, y cómo se ve el resultado una vez que se toma la foto (a través de la autoridad de Android).

El usuario menciona que los colores en el visor parecen precisos, pero una vez que se captura la foto, el resultado ha “desordenado los colores”. Utiliza un ejemplo para demostrar su experiencia adjuntando una imagen de lo que se muestra en el visor cuando está tomando una foto de su Ford Mustang Shelby (derecha) y la imagen procesada por Google (izquierda).

Crédito de la imagen: u/abcde__edcba

Como puede ver desde la imagen a la derecha, el Mustang se inclina hacia un tono naranja brillante, mientras que las “capacidades” de procesamiento de Google lo convierten en rojo. También adjunta una imagen tomada del mismo automóvil usando su Pixel 3, donde el color del automóvil aparece naranja en lugar de rojo, a pesar de ser tomado en diferentes condiciones de iluminación.

El usuario continúa mencionando que cuando ven la imagen en la aplicación Fotos justo después de tomarla, inicialmente parece estar bien. Sin embargo, los colores aparentemente cambian en segundos. Mientras que el póster original utilizó un Pixel 9 Pro para el ejemplo anterior, señalan que el mismo problema ocurre cuando se usa una tableta de píxeles. Si está pensando que una configuración incorrecta es la culpa, el póster de Reddit tiene una respuesta para eso. Mencionan que habilitar la configuración RAW no ayuda, Ultra HDR está deshabilitado, cambiar la resolución de la cámara de su píxel de 12MP a 50MP no hace ninguna diferencia, y alternar un color rico en las fotos dentro o fuera tampoco tiene ningún efecto.

Aparentemente, este es un problema generalizado, y los usuarios de Pixel no son fanáticos del sobreprocesamiento. Al momento de escribir, el Reddit Post ha sido votado más de 300 veces y tiene casi 150 comentarios. Bajo la publicación, otros usuarios de píxeles han intervenido para compartir sus experiencias, y un usuario menciona que en el momento en que apunta una cámara de píxeles hacia los “tonos rojos del cielo durante una puesta de sol”, la cámara lava los colores a amarillo y naranja opaco. Se quejan de que solo quieren que la imagen final se vea como lo que muestra la vista previa del visor. Si bien a algunos les puede gustar cómo las imágenes cuidan después de que Google las “procese”, la queja principal que la gente tiene es que actualmente no hay opción para optar por no participar en la función.

El OP menciona que una forma de evitar este postprocesamiento es habilitar la toma superior, elegir un marco diferente y presionar guardar una copia. Sin embargo, esto está lejos de ser una solución ideal, especialmente porque Google aumenta automáticamente cada imagen que tome. Una cuenta oficial de Google, U/PixelCommunity, también comentó en la publicación, pidiendo ponerse en contacto con el póster de Reddit para analizar el problema. Entonces, aunque la mayoría de los usuarios de Pixel creen que esta es una “característica”, podría ser otro error, y una solución ya podría estar en marcha.