Disguise optimiza el flujo de trabajo en producción virtual con su plataforma para entregar contenido en tiempo real
Ofrece el conjunto de herramientas vx, rx y RenderStream
Ante la demanda de producción inmersiva en tiempo real, el nuevo disguise 17.4 muestra características que fueron identificadas a través de la iniciativa de producción virtual de Netflix NLAB, con sus socios Lux Machina y Fuse Technical Group. El conocimiento adquirido a partir de estas pruebas ha optimizado su flujo de trabajo para la producción virtual en el set.
RenderStream es un protocolo de video sobre IP que sincroniza y transfiere contenido entre motores de renderizado y máquinas de composición final. Proporciona baja latencia, transferencia de video sin comprimir y envía metadatos de control para sincronizar el seguimiento de la cámara entre disguise y el motor de renderizado, además de proporcionar control de parámetros. Este nuevo enfoque permite avanzar hacia un sistema de renderizado escalable.
Con r17.4, los usuarios de RenderStream pueden acceder a funciones avanzadas de DX12 en Unreal como Ray Tracing para crear contenido fotorrealista que captura reflejos, refracciones y sombras precisas. En colaboración con Adrián Pueyo, supervisor de producción virtual de Orca VFX, disguise ha optimizado el flujo de trabajo. “El enfoque de disguise para producción virtual ha sido un cambio en el juego para nosotros, en términos de canalización, escalabilidad, gestión del color y rendimiento. Unreal Engine se enfoca en renderizar las escenas en tiempo real, y con el sistema de disguise tenemos una canalización con una enorme flexibilidad, donde los clientes pueden traer sus propias escenas sin literalmente ninguna restricción por nuestra parte».
La capacidad de escalar el contenido generativo en tiempo real juega así un papel importante para la libertad creativa en este tipo de producciones. “Rx, RenderStream y los nuevos productos vx son tecnologías con las que abordar la necesidad de escalar horizontalmente en lugar de escalar hacia arriba”, dice el director de tecnología de disguise, Ed Plowman.
Al eliminar los motores de renderizado, el usuario puede escalar el hardware para manejar configuraciones de múltiples cámaras, diseño de contenido complejo e incluso varios motores que trabajan juntos en la misma escena. Se pueden añadir más motores de renderizado con más cajas de rx para expandir el ecosistema a medida que se desarrolla la tecnología.
La demanda de disguise para proporcionar una columna vertebral de próxima generación para espacios de rendimiento y producción inmersivos en tiempo real se ha disparado desde principios de año. Los escenarios xR ya están utilizando disguise rx para obtener una capacidad avanzada sin comprimir y ya han ofrecido espectáculos y sesiones como los Video Music Awards (VMA) de MTV; shows para Orca y SAP también han implementado rx y RenderStream.
“Disguise añade el paquete vx, rx y RenderStream a nuestras ofertas de productos a medida que la demanda de xR y producción virtual aumenta en los mercados de medios y entretenimiento, corporativos y educativos”, dice el CEO de disguise, Fernando Kufer. «Con el paquete rx y RenderStream, los clientes tendrán soluciones integrales para aprovechar las nuevas oportunidades en este campo de rápida evolución».
Con un enfoque en la combinación de software basado en visualización 3D en tiempo real con hardware de alto rendimiento, disguise permite la entrega de proyectos creativos a escala. Con la reciente interrupción de los eventos en vivo en todo el mundo como resultado del brote de Covid-19, disguise ha lanzado una solución de Realidad Extendida para su flujo de trabajo, que permite dar vida a experiencias visuales en formato virtual. disguise xR ya ha impulsado producciones virtuales para la actuación de Katy Perry en el American Idol Finale 2020, el lanzamiento del álbum ‘Translation’ de Black Eyed Peas, la conferencia virtual ‘Sapphire Now’ 2020 de SAP, la actuación de Dave en los BRIT Awards 2020 y los esports del Omen Challenge de HP torneo 2019.