Tiempo de lectura: 3 minutos
Shares

La inteligencia artificial de Google ha ido cobrando poco a poco mayor trascendencia en muchas de las funciones del gigante de internet. En esta ocasión llega a un terreno más mundano pero divertido y se integrará en las YouTube Stories para permitir cambiar el color y diseño de fondo de las historias.

Las YouTube Stories utilizarán machine learning para cambiar el fondo

Hace tan solo unos cuantos meses te comentábamos que llegaba la función Reels, las “YouTube Stories” a la red social de vídeo más popular del mundo. Desde entonces, están disponibles para los creadores de contenido en la pestaña Community, donde conocidos youtubers pueden utilizarlas para interactuar con su audiencia.

Poco a poco, las YouTube Stories (parece que la propia empresa ha abandonado el nombre inicial de Reels) han ido añadiendo nuevas herramientas. La última de ellas permite modificar el fondo de una escena, lo que antes requería de mucho trabajo, como retocar cada fotograma o en el mejor de los casos, utilizar una pantalla profesional de fondo verde para poder eliminar en tiempo real y utilizar otra imagen, técnica conocida como Chroma Keying, que es usada desde hace años en cine y televisión.

Ahora YouTube Stories permite reemplazar fácilmente el fondo del vídeo sin necesidad de utilizar ningún tipo de equipo especial, lo que facilitará enormemente la producción y diseño de las historias de los creadores de contenido.

Google ha definido esta nueva característica como “vídeo segmentación” y con ello busca que las animaciones de fondo se vean fluidas y naturales. Así que podrás ver a tu youtuber favorito crear historias aparentando estar frente a un mural o dormir de noche. De hecho es tan fácil su uso que será casi igual que cuando, por ejemplo, se selecciona una máscara para utilizar en las historias de Facebook o de Instagram.

Imagen: captura de pantalla Google

Cómo funcionan los fondos de las YouTube Stories

Google explicó por medio de su blog de investigadores, que logró integrar la inteligencia artificial a las YouTube Stories, entrenándola por medio de miles de fotos de rostros humanos para reconocer en distintas poses y separar el fondo.  Así el sistema logró identificar sin equivocaciones la cara de la persona que está grabando, contra el fondo que es lo que se editará.

Imagen: Google

Imagen: Google

Si bien se ve como algo fácil de lograr, Google quiso poner especial cuidado en las discontinuidades temporales, como son la aparición repentina de otras personas en el campo de visión de la cámara. Además integró suavizados para que el cambio en el movimiento del usuario no se viera brusco ni interfiriera con la animación de fondo.

“A medida que mejoramos y ampliamos nuestra tecnología de segmentación a más etiquetas, planeamos integrarla en los servicios de realidad aumentada más amplios de Google señala el comunicado.

Por ahora esta nueva función se encuentra en fase beta para un número limitado de creadores de contenido, y aunque no se sabe con certeza si estará disponible para el resto de los usuarios, sin duda es un gran avance en la edición de vídeos, y tal como promete Google, poco a poco estos avances se integrarán a nuevos y mejores modelos y funciones en otras aplicaciones.

Click To Tweet

Imagen: Depositphotos

¡Mantente al día!

Recibe los mejores contenidos de marketing digital y comercio electrónico en tu email.

Acepto recibir comunicaciones comerciales perfiladas conforme a la política de privacidad de Iniciativas Virtuales.

Escribir comentario