El último #lanzamiento de código abierto de Google hace disponible de forma gratuita una de las armas secretas de la cámara Pixel 2: el software detrás de su único modo de retrato de una sola cámara. Las imágenes del modo de retrato aíslan el sujeto manteniéndolo enfocado, mientras que el primer plano y el fondo se difuminan suavemente, como lo harían con una cámara DSLR. Este proceso requiere que la cámara determine qué píxeles de la imagen forman parte del sujeto, por ejemplo, una persona, y que forman el fondo o el primer plano.

No te pierdas las últimas noticias Sigue el canal Videojuegos

Este proceso es parte de una pequeña parte de un concepto más amplio conocido como "segmentación de imágenes semánticas".

La segmentación de imágenes semánticas asigna a cada píxel de la imagen una etiqueta como "carretera", "cielo", "persona" o "perro" y es el modelo de segmentación de imagen semántica más reciente y mejor apodado DeepLab-v3 + , que ha sido lanzado como fuente abierta a principios de esta semana.

Es un sistema más preciso que la clasificaciónsimple de imágenes que puede describir el contenido de una imagen, pero no llega a asignar estas clasificaciones a píxeles individuales.

Ahora cualquiera podrá usar el código DeepLab-v3 + TensorFLow para experimentar con la segmentación de imágenes semánticas en plataformas móviles o de servidor, allanando el camino para sofisticadas aplicaciones de terceros.

Los siguientes ejemplos muestran cómo la segmentación de imágenes puede categorizar objetos dentro de una imagen. A cada etiqueta semántica se le da un color diferente: observe cómo todas las personas tienen el mismo color, mientras que la bicicleta y cada especie de animal tienen su propio color.

Google espera "facilitar a otros grupos académicos y de la industria reproducir y mejorar aún más los sistemas"

Se espera "facilitar a otros grupos académicos y de la industria reproducir y mejorar aún más los sistemas de vanguardia, entrenar modelos en nuevos conjuntos de datos y visualizar nuevas aplicaciones para esta tecnología".

Cuando se trata de cámaras de teléfonos móviles, Google no debería preocuparse por revelar estos secretos, ya que aunque Pixel 2 y Pixel 2 XL son actualmente los únicos teléfonos inteligentes capaces de implementar el modo vertical con una sola cámara, también confían en el percepción de profundidad proporcionada por el diseño de dos píxeles del hardware de la cámara para lograrlo.

Conocer la posición de un objeto en tres dimensiones es crucial para permitir que el modo vertical aplique la cantidad justa de desenfoque a cada #píxel para crear una imagen realista, mientras que la segmentación de imagen semántica lo ayuda a saber qué píxeles pertenecen a cada objeto, ayudándolo para reducir errores.

La segmentación de imágenes semánticas permite que el fondo se separe de las personas

La segmentación de imágenes semánticas también puede ayudar a las cámaras a tomar mejores decisiones sobre cómo exponer y procesar imágenes, reconociendo características importantes como rostros humanos, puestas de sol y comida.

También es útil para tareas familiares, como reemplazar fondos en video, que tradicionalmente requieren una considerable edición manual o grabación en entornos de estudio específicos.