¿Qué quieres buscar?

Disguise optimiza el flujo de trabajo en producción virtual con su plataforma para entregar contenido en tiempo real

05/10/2020

Ofrece el conjunto de herramientas vx, rx y RenderStream

Ante la demanda de producción inmersiva en tiempo real, el nuevo disguise 17.4 muestra características que fueron identificadas a través de la iniciativa de producción virtual de Netflix NLAB, con sus socios Lux Machina y Fuse Technical Group. El conocimiento adquirido a partir de estas pruebas ha optimizado su flujo de trabajo para la producción virtual en el set.

RenderStream es un protocolo de video sobre IP que sincroniza y transfiere contenido entre motores de renderizado y máquinas de composición final. Proporciona baja latencia, transferencia de video sin comprimir y envía metadatos de control para sincronizar el seguimiento de la cámara entre disguise y el motor de renderizado, además de proporcionar control de parámetros. Este nuevo enfoque permite avanzar hacia un sistema de renderizado escalable.

Con r17.4, los usuarios de RenderStream pueden acceder a funciones avanzadas de DX12 en Unreal como Ray Tracing para crear contenido fotorrealista que captura reflejos, refracciones y sombras precisas. En colaboración con Adrián Pueyo, supervisor de producción virtual de Orca VFX, disguise ha optimizado el flujo de trabajo. “El enfoque de disguise para producción virtual ha sido un cambio en el juego para nosotros, en términos de canalización, escalabilidad, gestión del color y rendimiento. Unreal Engine se enfoca en renderizar las escenas en tiempo real, y con el sistema de disguise tenemos una canalización con una enorme flexibilidad, donde los clientes pueden traer sus propias escenas sin literalmente ninguna restricción por nuestra parte».

La capacidad de escalar el contenido generativo en tiempo real juega así un papel importante para la libertad creativa en este tipo de producciones. “Rx, RenderStream y los nuevos productos vx son tecnologías con las que abordar la necesidad de escalar horizontalmente en lugar de escalar hacia arriba”, dice el director de tecnología de disguise, Ed Plowman.

Al eliminar los motores de renderizado, el usuario puede escalar el hardware para manejar configuraciones de múltiples cámaras, diseño de contenido complejo e incluso varios motores que trabajan juntos en la misma escena. Se pueden añadir más motores de renderizado con más cajas de rx para expandir el ecosistema a medida que se desarrolla la tecnología.

La demanda de disguise para proporcionar una columna vertebral de próxima generación para espacios de rendimiento y producción inmersivos en tiempo real se ha disparado desde principios de año. Los escenarios xR ya están utilizando disguise rx para obtener una capacidad avanzada sin comprimir y ya han ofrecido espectáculos y sesiones como los Video Music Awards (VMA) de MTV; shows para Orca y SAP también han implementado rx y RenderStream.

“Disguise añade el paquete vx, rx y RenderStream a nuestras ofertas de productos a medida que la demanda de xR y producción virtual aumenta en los mercados de medios y entretenimiento, corporativos y educativos”, dice el CEO de disguise, Fernando Kufer. «Con el paquete rx y RenderStream, los clientes tendrán soluciones integrales para aprovechar las nuevas oportunidades en este campo de rápida evolución».

Con un enfoque en la combinación de software basado en visualización 3D en tiempo real con hardware de alto rendimiento, disguise permite la entrega de proyectos creativos a escala. Con la reciente interrupción de los eventos en vivo en todo el mundo como resultado del brote de Covid-19, disguise ha lanzado una solución de Realidad Extendida para su flujo de trabajo, que permite dar vida a experiencias visuales en formato virtual. disguise xR ya ha impulsado producciones virtuales para la actuación de Katy Perry en el American Idol Finale 2020, el lanzamiento del álbum ‘Translation’ de Black Eyed Peas, la conferencia virtual ‘Sapphire Now’ 2020 de SAP, la actuación de Dave en los BRIT Awards 2020 y los esports del Omen Challenge de HP torneo 2019.

Tecnología MÁS LEÍDOS
Relacionados
Tecnología 05/12/2022

disguise renueva su plataforma de eLearning para ofrecer una experiencia de aprendizaje adaptada a la industria

disguise, la plataforma tecnológica para producciones virtuale, ha rediseñado su programa de aprendizaje a una nueva oferta llamada disguise Learn. Los nuevos cursos presenciales y en línea proponen una experiencia mejorada que ofrece rutas de aprendizaje dedicadas para producción virtual, realidad extendida, gráficos de streaming, experiencias basadas en la localización y eventos en vivo para que los usuarios puedan elegir la ruta de aprendizaje más relevante para su aplicación en su profesión.

Eventos 12/05/2023

Virtual Production Summit en Cannes de la mano de disguise y Film Soho

disguise organiza por vez primera para los asistentes al Festival de Cannes cinco días de actividades de producción virtual impulsadas por su plataforma en el virtual Production Summit Virtual. Creada en asociación con Film Soho, Marché du Film y Cannes Next,  el Summit contará con charlas, demostraciones y talleres sobre el futuro del entretenimiento con directores de estudios y cineastas en Netflix, Paramount, Framestore o Nordisk Film.

Vivir rodando 12/01/2023

Sony, Virtual Production y Studios de France suman fuerzas para crear el primer estudio de producción virtual de Europa con tecnología Crystal LED de Sony

Sony se ha unido a Plateau Virtuel (un estudio de producción virtual filial de Novelty-Magnum-Dushow Group) y a Studios de France (un proveedor de platós filial del grupo AMP Visual TV) para crear el primer estudio virtual con una pantalla Crystal LED de Sony de 90 m² (18 m de ancho × 5 m de alto) en Seine Saint Denis, al norte de París (Francia). Camera & Light tuvo el placer de asistir a la inauguración del mismo, del que os adelantamos aquí los detalles y del que os hablaremos en profundidad en el próximo número de la revista.

Tecnología 27/06/2023

Nace Emotional films, formato que evoluciona en tiempo real en función de las emociones del espectador gracias a la IA

El estudio de cine de animación y videojuegos Dr. Platypus & Ms. Wombat presentará este jueves 29 de junio en Pamplona Emotional Films, un nuevo formato audiovisual que parece capaz de evolucionar la historia en tiempo real en función de las emociones del espectador gracias a la Inteligencia Artificial. Este logro se debe a una compleja arquitectura compuesta por 8 sofisticados modelos de IA interconectados, enormes bases de datos y otras tecnologías. Todo ello, para ofrecer una experiencia autogenerada en tiempo real desde la nube y reactiva a las emociones del espectador.

Síguenos
  • Youtube Camera&Light Magazine
  • Threads Camera&Light Magazine
  • Mailchimp Camera&Light Magazine
  • Facebook Camera&Light Magazine
  • X Camera&Light Magazine
  • Instagram Camera&Light Magazine
  • Linkedin Camera&Light Magazine