Google explica el modo Astrofotografía de los Pixel 4
5 (100%) 1 voto

Incluso antes de que Google lanzara la serie Pixel 4, su modo de Astrofotografía llamó la atención de los usuarios de todo el mundo. La nueva configuración mejorada del modo nocturno en la aplicación Google Camera ahora permite capturar increíbles fotos del cielo nocturno estrellado. Sin embargo, capturar fotos como las que podrías haber visto en las redes sociales no es tan fácil como parece. Hay varios parámetros que se deben tener en cuenta para capturar una fotografía decente de este estilo. Por lo anterior, desde Google ahora han publicado una explicación muy necesaria sobre la nueva función.

El modo Astrofotografía de los Google Pixel 4 explicado

En una reciente publicación de blog titulada “Astrofotografía con visión nocturna en teléfonos Pixel“, Florian Kainz y Kiran Murthy de Google explican cómo surgió el nuevo modo.

Estrellas afectadas por el motion blur

La publicación habla sobre el funcionamiento interno de la compañía y revela detalles clave sobre cómo los ingenieros fijaron los tiempos de exposición para cada fotograma y la cantidad de fotogramas a capturar para lograr los mejores resultados y evitar cualquier desenfoque de movimiento.

Corriente oscura

Luego, arroja luz sobre cómo la compañía abordó los problemas con la corriente oscura. Esto es lo que hace que los sensores de imagen CMOS graben señales incorrectas, que provocan la iluminación de píxeles individuales incluso cuando no están expuestos a tanta luz.

Fotografía afectada por corriente oscura vs Fotografía con conrriente socura corregida

Para combatir este problema, la compañía compara los valores de los píxeles vecinos dentro del mismo cuadro y en la secuencia de cuadros para buscar valores atípicos. Luego, eliminó estos valores atípicos ocultándolos con el valor promedio de sus vecinos.

Composición de la escena

Google luego habla sobre la composición de la escena y cómo tuvieron que mostrar un “visor posterior al obturador” en el modo Visión Nocturna para ayudar a los usuarios a ver lo que estaban capturando.

Corrección de la imagen del visor de la cámara

Sin esta implementación, la mayoría de las veces veríamos solamente una pantalla gris. Esto haría que componer la toma sea bastante difícil.

Enfoque automático

El enfoque automático fue otro problema que enfrentó la compañía debido a una razón similar. Para resolver  esto fue que implementaron el “enfoque automático posterior al obturador“. Esta nueva característica captura dos cuadros de enfoque automático con tiempos de exposición de hasta un segundo para ayudar a detectar detalles de la imagen incluso con poca luz. Estos marcos ayudan a la cámara del Pixel 4 a enfocar correctamente el sujeto, pero no contribuyeron directamente a la imagen final.

Procesamiento de la imagen

Finalmente, Google tuvo que cambiar cómo procesaba el cielo en las fotos del modo Visión Nocturna para Astrofotografía con el objetivo de ofrecer resultados creíbles.

Sin procesado especial para el cielo vs Con procesado especial para el cielo

El procesamiento no solo ayuda a que el cielo se viera más oscuro, como es de esperar que se vea de noche, sino que también añade una reducción de ruido específicamente pensada para el cielo. También agrega un aumento selectivo del contraste para que ciertas características sean más prominentes.

Fuente

¿Te ha parecido interesante esta noticia? Puedes dejarnos un comentario con tu opinión, te lo agradeceremos.  

Sobre El Autor

Fanático de la tecnología móvil, me gusta estar siempre al día sobre los últimos lanzamientos y novedades desde China u Occidente. Twitter: @jean_ERdC

Dejanos un comentario