¿Cómo estuvo el artículo?

1516480verificación de cookiesLos juegos de Unreal Engine 4 con Ray-Tracing DXR se lanzarán a finales de 2018
Noticias del Sector
2018/03

Los juegos de Unreal Engine 4 con Ray-Tracing DXR se lanzarán a finales de 2018

Teoría de Ninja Hellblade Puede que haya sido del agrado o no de ciertos jugadores, pero una cosa fue inequívoca e indiscutiblemente notable sobre el proyecto: la capacidad de traducir directamente la captura de rendimiento con gráficos de calidad cinematográfica al tiempo de ejecución en tiempo real del motor Unreal Engine. Canal de diseño y animación de 4.

En términos simples, en lugar de tener un estudio de captura de performance gigante al estilo de Hollywood, realizar todos los procedimientos de captura de voz y movimiento en un estudio separado, luego capturar los datos y enviarlos al equipo de animación para limpiarlos e implementarlos en Después del juego en un estudio diferente, Ninja Theory logró capturar todo el rendimiento cinematográfico internamente y grabarlo directamente en Unreal Engine 4 sin necesidad de limpieza, alteración o modificación por parte de terceros.

La importancia de este paso es que el trabajo que hizo Ninja Theory en la construcción de un inyector para Unreal Engine en colaboración con 3Movimiento lateral y cúbico les permitió construir un juego como Hellblade con un presupuesto mucho menor pero con exactamente el mismo tipo de calidad cinematográfica que normalmente se encuentra en los juegos AAA con presupuestos de 100 millones de dólares. Todo hecho por una fracción del costo y sin pérdida de fidelidad visual.

Bueno, Epic habría sido negligente si hubiera dejado pasar la oportunidad de aprovechar y ampliar esta tecnología para Unreal Engine 4. Durante la Game Developers Conference de este año, el estudio reveló nuevas asociaciones con Tencent, Vicon, 3Lateral y Cubic Motion para ayudar a mejorar el flujo de diseño creativo dentro de Unreal Engine 4 que permite a los desarrolladores capturar de manera fácil y conveniente actuaciones dentro de Unreal Engine 4 en tiempo real a 60 fotogramas por segundo. Esto fue demostrado con Sirena, un modelo asiático realista con fidelidad de calidad CG que se ejecuta en tiempo real dentro del tiempo de ejecución de Unreal Engine 4 a 60 cuadros por segundo ininterrumpidos. Puede ver la demostración a continuación, cortesía de Engadget.

Como se señala en el video, el montaje facial funciona al unísono con el proceso de animación procedimental para permitir que las personas que no se parecen al modelo 3D actúen y actúen en lugar del modelo que se escaneó originalmente para su uso en el proyecto. Anteriormente, el actor y el modelo escaneado en 3D tenían que ser la misma persona para evitar discrepancias de movimiento entre el modelo manipulado y el actor de la vida real.

La nueva tecnología significa que técnicamente podrías tener un actor actuando para múltiples personajes realistas sin que aparezcan incongruencias dimórficas en el pase de animación final. Puede consultar una versión ininterrumpida del Sirena demostración a continuación.

Como explicó Epic Games, para continuar el largo y arduo viaje fuera del valle inquietante, se puso mucho trabajo en el modelo mismo para el renderizado de alta gama gracias a Cubic Motion y 3Lateral trabajando con Epic para mejorar la forma en que El modelo se renderiza en Unreal Engine. Esto incluye retrodispersión subsuperficial mejorada para que las porciones más delgadas de la piel sean translúcidas bajo condiciones de iluminación específicas, así como reflejos especulares duales para una representación más suave de gradientes de luz de luces duras a suaves en la cara de un personaje, e irradiancia del espacio de la pantalla para ayudar con la anulación. el efecto ojo de pez muerto.

Epic hace posible que los diseñadores y artistas transmitan datos de animación de Vicon desde la captura de rendimiento directamente al canal de animación de Unreal Engine. Entonces, si desea mezclar y combinar diferentes actores de la vida real con actores 3D, puede hacerlo sin tener que pasar por el proceso de ida y vuelta de llevar los datos al equipo de animación, limpiarlos y luego aplicarlos al motor. después de hacer el trabajo de estudio. Puedes ver los resultados de inmediato en Unreal Engine, allí mismo durante la filmación.

Los avances en estas técnicas de captura de actuaciones quedaron demostrados con la actuación del veterano actor de Hollywood Andy Serkis interpretando Macbeth.

Utilizando los objetivos de alta fidelidad de compresión y contracción muscular en tiempo real de 3Lateral, los animadores tienen la capacidad de modificar el desempeño de un actor utilizando el conjunto de herramientas de animación en tiempo real Unreal Engine 4.

Es posible utilizar los conjuntos de datos de animación en cualquier modelo correctamente montado, incluso si el modelo en sí no se parece en nada al actor. Esto se relaciona con lo que se mencionó antes sobre las herramientas de animación adaptativa que Vicon y Tencent usaron para el modelo asiático, incluso cuando la actriz de la vida real no se parecía en nada al modelo escaneado en 3D. Epic utilizó los datos capturados de la actuación de Macbeth de Andy Serkis y los aplicó a un personaje alienígena ficticio que estaba adecuadamente preparado para leer los conjuntos de datos. Los resultados son bastante impresionantes.

Algunas de las actualizaciones para Unreal Engine 4 que contienen muchas de estas funciones estarán disponibles a partir del 20 de abril.

Esto también se aplica a la profunda inmersión de Epic en el renderizado de trazado de rayos.

Después de que Hayssam Keilany lograra implementar técnicas de seguimiento de ruta en tiempo real en sombreadores para juegos como GTA IV Hace media década, Epic finalmente intensificó su juego y logró lograr una iluminación realista en tiempo real a través del trazado de rayos para fuentes de luz y sombras de múltiples pasos.

Epic demostró esta técnica con un cortometraje que presenta Star Wars.

El trazado de rayos en tiempo real puede ser muy agotador, por lo que Epic se asoció con Nvidia y Microsoft para desarrollar una nueva API llamada DXR, que es un canal de trazado de rayos DirectX que se comunica directamente con la GPU para realizar tareas complejas de iluminación y sombreado utilizando hardware. -tecnología dependiente llamada RTX.

Según Epic Games, veremos algunos juegos lanzados a finales de este año que utilizarán la tecnología DXR de Microsoft y los nuevos canales de trazado de rayos de Epic Games.

Otras noticias de la industria