Versión 2020.1 de Unity

Características nuevas y actualizaciones en los gráficos

Esta versión brinda mayor estabilización y nuevas características para artistas técnicos y programadores gráficos que trabajan con Unity. Esto incluye Camera Stacking (apilamiento de cámaras) en el canal de renderizado universal (URP) y actualizaciones de iluminación, tales como las optimizaciones de los mapas de luz (lightmapping).

¿Qué novedades trae la versión 2020.1?

Descubre algunas de las principales actualizaciones para los gráficos de Unity 2020.1. Si quieres conocer todos los detalles, consulta las notas de la versión.

Camera Stacking en el canal de renderizado universal

Durante el desarrollo de un juego, hay muchas instancias en las que se desea incluir algo que se renderiza fuera del contexto de la cámara principal. Por ejemplo, es posible que desees mostrar una versión de tu personaje en un menú de pausa o, si se trata de un juego de mecánica, quizás necesites una configuración de renderizado especial para la cabina.

Ahora puedes usar Camera Stacking para formar capas con el resultado de múltiples cámaras y crear una única salida combinada. Te permite crear efectos tales como un modelo 3D en una interfaz de usuario (UI) en 2D o la cabina de un vehículo. Consulta la documentación para ver las limitaciones actuales.

Más información

Actualizaciones de iluminación

Los assets de Lighting Settings permiten que los usuarios modifiquen los ajustes que usan múltiples escenas de manera simultánea. Esto significa que las modificaciones en diferentes propiedades pueden propagarse rápidamente a través de los proyectos, lo cual es ideal para los artistas de iluminación que quizás necesitan hacer cambios globales en varias escenas. Ahora es mucho más rápido intercambiar entre diferentes Lighting Settings (ajustes de iluminación), por ejemplo, al moverse entre integraciones con calidad de vista previa y calidad de producción.

Importante: Lighting Settings ya no forma parte del archivo de Unity Scene. Ahora, está ubicado en un archivo independiente dentro del proyecto, donde se guardan todos los ajustes relacionados con la iluminación global (Global Illumination) precalculados.

Nota: El video de arriba es del proyecto Enter the Room creado por Nedd para ICRC.

Más información

Empaquetado sin superposiciones

Configurar los modelos de iluminación ahora es mucho más simple.

Para hacer el mapa de luz de los objetos, primero es necesario "desplegarlos" a fin de aplanar la geometría en coordenadas de textura 2D (mapa UV). Eso significa que todas las caras deben asignarse a una parte única del mapa de luz (lightmap). Las áreas que se superponen pueden desdibujar los bordes y causar otros problemas visuales en el resultado renderizado.

A fin de evitar que haya interferencias entre mapas UV adyacentes, las áreas geométricas deben tener una separación suficiente para que los valores de iluminación tengan espacio para expandirse. Esto ayuda a garantizar que el efecto del filtrado de la textura no tome valores de los mapas circundantes, lo cual puede no corresponderse con los valores de iluminación esperados en el borde UV.

El empaquetado automático de Unity crea un margen de empaque mínimo entre los mapas UV de mapa de luz (lightmap) a fin de dejar espacio para esta expansión. Esto sucede al momento de la importación. No obstante, si se usan densidades de téxel bajas en la escena, o quizás al modificar la escala de los objetos, ese margen en la salida del mapa de luz (lightmap) igualmente puede ser insuficiente.

A fin de que resulte más fácil encontrar el tamaño requerido para este margen de empaquetado al momento de la importación, Unity ahora ofrece un método para calcular el margen en el importador del modelo. Aquí, puedes especificar la resolución mínima del mapa de luz con la cual se utilizará el modelo, así como la escala mínima. A partir de estos datos, el desplegador de Unity calcula el margen requerido en el empaque para que los mapas de luz no se superpongan.

 

Más información
GPU y CPU Lightmapper: muestreo mejorado

GPU y CPU Lightmapper: muestreo mejorado

La correlación en el mapeo de rutas es un fenómeno en el que muestras aleatorias de una escena con mapas de luz pueden verse "aglomeradas" o presentar algún otro tipo de defecto. En la versión 2020.1, implementamos un mejor método de decorrelación para CPU Lightmapper y GPU Lightmapper. 

Estas mejoras en el proceso de decorrelación están activas de forma predeterminada; el usuario no necesita hacer nada. En consecuencia, se obtienen mejores resultados con los mapas de luz que convergen y se muestran menos artefactos.

También aumentamos los límites de recuento de las muestras de Lightmapper de 100,000 a mil millones. Esto puede resultar útil para proyectos tales como las visualizaciones arquitectónicas, en los cuales las condiciones de iluminación difíciles pueden producir resultados defectuosos en los mapas de luz.

En la versión 2020.2, se agregarán más mejoras a esta característica, de las cuales ahora puedes tener una vista previa en las compilaciones alfa.

Obtén más información y participa de la conversación

Optimizaciones de mapas de luz

Cuando procesamos los mapas de luz, lanzamos rayos en la escena que rebotan contra las superficies. Eso crea rutas de luz que se utilizan para calcular la iluminación global (Global Illumination). Cuanto más rebota un rayo, mayor es la ruta y más es el tiempo que tarda en generarse una muestra. Esto aumenta el tiempo necesario para crear el mapa de luz (lightmap) de la escena. 

A fin de limitar el tiempo necesario para calcular cada rayo, Lightmapper debe contar con algunos criterios que le permitan establecer el final de la ruta para cada rayo de luz. Puedes indicar un límite preestablecido en cuanto a la cantidad de rebotes que cada rayo puede tener. A fin de optimizar el proceso aún más, puedes utilizar una técnica conocida como la "ruleta rusa", que selecciona al azar las rutas que deben terminarse de forma anticipada. 

Este método toma en cuenta la importancia que una ruta tiene para la iluminación global (Global Illumination) en la escena. Cada vez que un rayo rebota sobre una superficie oscura aumentan las probabilidades de que esa ruta finalice de forma anticipada. Seleccionar los rayos de esta forma reduce el tiempo general de integración con un efecto habitualmente imperceptible en la calidad de la iluminación.

La imagen de arriba es del proyecto Enter the Room creado por Nedd para ICRC.

 

Obtén más información y participa de la conversación

Scene View Mode de contribuyentes y receptores

Con Scene View de contribuyentes (contributors) y receptores (receivers), ahora puedes ver qué objetos influyen sobre la iluminación global (Global Illumination, GI) dentro de la escena. Esto también hace que se pueda ver rápidamente y con mayor facilidad si la GI proviene de los mapas de luz o de las sondas de luz (light probes).

Mediante Scene View Mode, los Mesh Renderers se dibujan con colores diferentes según si contribuyen a la GI o no y si reciben GI y de qué manera lo hacen. Scene View Mode funciona con todos los canales de renderizado codificables, además del renderizador integrado de Unity. 

Este modo puede ser especialmente útil con la sonda de luz (light probe), ya que proporciona una excelente visión general del uso de la sonda (probe). Los colores pueden personalizarse en el panel Preference (preferencias) a fin de facilitar la accesibilidad.

Más información

Mapeo de rayos para mallas animadas (vista previa)

El mapeo de rayos (vista previa) ahora admite la animación mediante el componente Skinned Mesh Renderer. Alembic Vertex Cache y las mallas con contenido dinámico (consulta el ejemplo a continuación) ahora se admiten mediante la opción Dynamic Geometry Ray Tracing Mode (modo de mapeo de rayos con geometría dinámica) en el menú Renderers. Únete a nuestro foro sobre mapeo de rayos en el canal de renderizado de alta definición (HDRP) si te interesa probar estas funciones. También puedes leer nuestro artículo que trata específicamente sobre las características del mapeo de rayos en el HDRP.

Comenzar

Streaming Virtual Texturing (vista previa)

Streaming Virtual Texturing (texturización virtual transmitida) es una función que reduce el uso de memoria de la GPU y los tiempos de carga de las texturas cuando hay muchas de alta resolución en una escena. Su funcionamiento se basa en dividir las texturas en mosaicos y subirlos de manera progresiva a la memoria de la GPU según se los va necesitando. Ahora se admite en el canal de renderizado de alta definición (9.x en vista previa y posterior) y para utilizarse con Shader Graph

Puedes tener una vista previa del paquete en proceso en este proyecto de muestra y contarnos tu opinión en el foro.

Más información

Descarga Unity 2020.1 ahora

Obtén acceso a todas las características y herramientas más nuevas hoy mismo.

Usamos cookies para brindarte la mejor experiencia en nuestro sitio web. Visita nuestra página de política de cookies si deseas más información.

Listo