Unreal Engine 4 Games con Ray-Tracing DXR se lanzará en Late 2018

Unreal Engine 4 DXR

Teoría de Ninja Hellblade puede o no haber sido la taza de té para ciertos jugadores, pero una cosa fue inequívoca e indiscutiblemente notable sobre el proyecto: la capacidad de traducir directamente la captura de rendimiento con gráficos de calidad cinematográfica en el tiempo de ejecución en tiempo real del Motor Unreal Canalización de diseño y animación de 4.

En términos simples, en lugar de tener un estudio gigante de captura de rendimiento al estilo Hollywood, realice todos los procedimientos de captura de voz y movimiento en un estudio separado, y luego capture los datos y envíelos al equipo de animación para que lo limpien e implementen. el juego en un estudio diferente, Ninja Theory logró hacer toda la captura de rendimiento cinematográfico internamente y grabarlo directamente en Unreal Engine 4 sin requerir ninguna limpieza, modificaciones o modificaciones por parte de un tercero.

La importancia de este paso es que el trabajo que Ninja Theory hizo sobre la construcción de un inyector para el motor Unreal en colaboración con 3el movimiento cúbico y lateral les permitió construir un juego como Hellblade en un presupuesto mucho más pequeño pero con exactamente el mismo tipo de salida de calidad cinematográfica que generalmente se encuentra en los juegos AAA con presupuestos de $ 100 en millones de dólares. Todo hecho por una fracción del costo y sin pérdida de fidelidad visual.

Bueno, Epic habría sido negligente al dejar pasar la oportunidad de aprovechar y expandir esta tecnología para Unreal Engine 4. Durante la Game Developers Conference de este año, el estudio presentó nuevas alianzas con Tencent, Vicon, 3Lateral y Cubic Motion para ayudar a mejorar el flujo de diseño creativo dentro de Unreal Engine 4 que permite a los desarrolladores capturar rendimientos de manera fácil y conveniente dentro de Unreal Engine 4 en tiempo real tiempo en marcos 60 por segundo. Esto fue demostrado con Sirena, un modelo asiático realista con calidad de CG de fidelidad ejecutándose en tiempo real dentro del tiempo de ejecución de Unreal Engine 4 en cuadros 60 ininterrumpidos por segundo. Puede ver la demostración a continuación, cortesía de Engadget.

Como se señala en el video, el aparejo facial funciona al unísono con la canalización de animación de procedimientos para permitir que las personas que no se parecen al modelo 3D actúen y funcionen en lugar del modelo que se escaneó originalmente para su uso en el proyecto. Anteriormente, el actor y el modelo escaneado 3D tenían que ser la misma persona para evitar discrepancias de movimiento entre el modelo manipulado y el actor de la vida real.

La nueva tecnología significa que técnicamente podría tener un actor actuando para múltiples personajes reales sin incongruencias dimórficas que aparezcan en el pase de animación final. Puede consultar una versión ininterrumpida de Sirena demostración a continuación.

Según lo explicado por Epic Games, para continuar el largo y arduo viaje fuera del misterioso valle, se puso mucho trabajo en el modelo mismo para una representación de alta calidad gracias a Cubic Motion y 3Lateral trabajando con Epic para mejorar la forma en que el el modelo se representa en el motor Unreal. Esto incluye una retrodispersión subsuperficial mejorada para que las partes más delgadas de la piel sean translúcidas bajo condiciones de iluminación específicas, así como reflejos espectrales duales para una representación más suave de degradados de luz dura a suave en la cara de un personaje y la irradiancia del espacio de pantalla para ayudar a anular el efecto ojo de pez muerto.

Epic está haciendo posible que los diseñadores y artistas transmitan datos de animación de Vicon desde la captura de rendimiento directamente a la canalización de animación de Unreal Engine. Entonces, si quieres mezclar y unir diferentes actores de la vida real con actores de 3D, puedes hacerlo sin tener que pasar por el proceso de llevar los datos al equipo de animación, limpiarlos y luego aplicarlos a la tubería del motor después de hacer el trabajo de estudio. Puedes ver los resultados de inmediato en el Unreal Engine, justo allí durante la filmación.

Los avances en estas técnicas de captura de rendimiento se demostraron con la actuación del veterano actor de Hollywood Andy Serkis que interpretó a Macbeth.

Usando los objetivos de alta fidelidad de compresión y contracción muscular en tiempo real de 3Lateral, los animadores tienen la capacidad de modificar el rendimiento de un actor utilizando el conjunto de herramientas de animación Unnal Engine 4 en tiempo real.

Es posible utilizar los conjuntos de datos de animación en cualquier modelo correctamente armado, incluso si el modelo en sí no tiene ninguna apariencia para el actor. Esto se relaciona con lo que se mencionó anteriormente sobre las herramientas de animación adaptativa que Vicon y Tencent usaron para el modelo asiático, incluso cuando la actriz de la vida real no se parecía en nada al modelo escaneado 3D. Epic usó los datos capturados de la performance Macbeth de Andy Serkis y los aplicó a un personaje alienígena ficticio que estaba adecuadamente manipulado para leer de los conjuntos de datos. Los resultados son bastante impresionantes.

Algunas de las actualizaciones de Unreal Engine 4 que contienen muchas de estas funciones estarán disponibles a partir de abril 20th.

Esto también se aplica a la inmersión profunda de Epic en la representación de trazado de rayos.

Después de que Hayssam Keilany lograra implementar técnicas de trazado de rutas en tiempo real en shaders para juegos como GTA IV Hace media década, Epic finalmente ha intensificado su juego y ha logrado lograr una iluminación real en tiempo real a través del trazado de rayos para fuentes de luz y sombras de múltiples pasos.

Epic demostró esta técnica con una película corta que presentaba Star Wars.

El rastreo de rayos en tiempo real puede ser muy agotador, por lo que Epic se asoció con Nvidia y Microsoft para desarrollar una nueva API llamada DXR, que es una tubería de rastreo de rayos DirectX que habla directamente con la GPU para realizar tareas complejas de iluminación y sombreado utilizando hardware tecnología independiente llamada RTX.

Según Epic Games, veremos algunos juegos lanzados más adelante este año haciendo uso de la tecnología DXR de Microsoft y las nuevas tuberías de seguimiento de rayos de Epic Games.