Unity-Veröffentlichungen

Bei Unity führen wir Forschungsarbeiten in den Bereichen Grafik, KI, Leistungssteigerung und vielem mehr durch. Unsere Forschungsergebnisse teilen wir mit Ihnen und unserer Community in Gesprächsrunden, Konferenzen und Journalen. Schauen Sie sich unten unsere aktuellen Publikationen an.

Sampling der GGX-Verteilung sichtbarer Normals

Eric Heitz – JCGT 2018

Importance Sampling von Mikrofacetten-BSDF mittels ihrer Verteilung von sichtbaren Normals (Distribution of Visible Normals (VNDF)) bringt beträchtliche Varianzverringerung beim Monte-Carlo-Rendering. In diesem Artikel beschreiben wir eine effiziente und präzise Sampling-Routine für die VNDF der GGX-Mikrofacettenverteilung. Die Routine nutzt dafür die Eigenschaft, dass die GGX die Verteilung der Normals eines abgeschnittenen Ellipsoids ist, und das Sampling der GGX VNDF äquivalent zum Sampling einer 2D-Projektion dieses abgeschnittenen Ellipsoids darstellt. Dazu vereinfachten wir das Problem mittels linearer Transformation, die das abgeschnittene Ellipsoid auf einer Halbkugel abbildet. Da lineare Transformationen die Uniformität der abgebildeten Bereiche erhalten, erzeugt das Sampling in einer Halbkugelkonfiguration und Transformation der Samples zurück in die Ellipsoidkonfiguration korrekte Samples von den GGX VNDF.

Veröffentlichung
Biblio
Code-Beispiel

Analytische Berechnung eines Raumwinkels, der von einem beliebig gesetzten Ellipsoid bei einer Punktquelle geschnitten wird

Eric Heitz –  Kerntechnische Messgeräte und -methoden in der Physikforschung 2018

Wir präsentieren ein geometrisches Verfahren für die Berechnung einer Ellipse, die denselben Raumwinkelbereich wie ein beliebig gesetztes Ellipsoid schneidet. Damit wird es möglich, existierende analytische Raumwinkelberechnungen von Ellipsen auf Ellipsoide anzuwenden. Unser Ansatz besteht in der Anwendung linearer Transformation am Ellipsoid, sodass dieses zu einer Kugel umgeformt wird, von welcher eine Scheibe berechnet werden kann, die denselben Raumwinkel einnimmt. Wir demonstrieren, wie die Anwendung einer invertierten linearen Transformation auf diese Scheibe eine Ellipse erzeugt, die denselben Raumwinkelbereich wie das Ellipsoid schneidet. Wie stellen eine MATLAB-Implementierung unseres Algorithmus bereit und können ihn mathematisch validieren.

Verlegerversion
Kostenlose Autorendruckversion

Eine Beobachtung zum Streckenlängen-Sampling mit nicht-exponentiellen Verteilungen

Eric Heitz, Laurent Belcour - Tech Report 2018

Beim Streckenlängen-Sampling handelt es sich um den Vorgang des Samplings zufälliger Intervalle gemäß einer bestimmten Entfernungsverteilung. Das bedeutet, dass keine punktuelle Entfernung von der Entfernungsverteilung bestimmt wird, sondern ein Intervall möglicher Entfernungen. Der Streckenlängen-Sampling-Prozess ist korrekt, wenn die erwarteten Intervalle der Zielentfernungsverteilung entsprechen. Anders ausgedrückt: Der Durchschnittswert der Sample-Intervalle sollte zum Wert der Entfernungsverteilung tendieren, je mehr Sample-Intervalle bestimmt werden. Hier muss deutlich angemerkt werden, dass die Entfernungsverteilung, die für die Bestimmung von punktuellen Entfernungs-Samples verwendet wird, und die Streckenlängenverteilung, die für die Bestimmung von Sample-Intervallen verwendet wird, nicht dasselbe sind. Der Unterschied kann überraschend sein. Unseres Wissens nach wurde das Streckenlängen-Sampling hauptsächlich im Transportwesen studiert, wo die Entfernungsverteilung exponentiell ist: In diesem Fall ist sowohl die Entfernungsverteilung als auch die Streckenlängenverteilung dieselbe exponentielle Verteilung. Im Allgemeinen sind sie jedoch nicht gleich, wenn die Verteilung nicht exponentiell ist.

Veröffentlichung

Kombination analytischer Direktbeleuchtung und stochastischer Schatten

Eric Heitz, Stephen Hill (Lucasfilm), Morgan McGuire (NVIDIA) - I3D 2018 (Short Paper) (Preis für beste Paper-Präsentation)

In diesem Paper schlagen wir einen Verhältniskalkulator für die Direktbeleuchtungsgleichung vor, mit dem wir analytische Beleuchtungstechniken mit stochastischen Raytracing-Schatten kombinieren und deren Korrektheit aufrechterhalten können. Unser Hauptbeitrag dazu besteht darin, zu zeigen, dass die Schattenbeleuchtung in das Produkt der unbeschatteten Beleuchtung und beleuchtungsgewichteten Schatten aufgeteilt werden kann. Diese Terme können separat berechnet werden, möglicherweise sogar mit unterschiedlichen Verfahren, ohne die Genauigkeit des finalen Ergebnisses, das aus deren Produkt entsteht, zu beeinträchtigen. Die Formulierung erweitert den Einsatzbereich analytischer Beleuchtungstechniken auf Raytracing-Anwendungen, wo deren Einsatz bisher vermieden wurde, da sie keine Schatten umfassten. Wir nutzen solche Methoden, die zu scharfen und rauschfreien Schatten im Bild mit unbeschatteter Beleuchtung führen, und wir berechnen das Bild mit gewichteten Schatten durch stochastisches Raytracing. Der Vorteil der Beschränkung der stochastischen Berechnung auf das Bild mit gewichteten Schatten liegt darin, dass im finalen Ergebnis ein Rauschen nur im Schattenbereich sichtbar ist. Weiterhin entfernen wir Rauschen in einem separaten Prozess von beleuchteten Bereichen, sodass auch aggressive Rauschentfernung nur die Schatten übermäßig weichzeichnet, hochfrequente Schattendetails (Texturen, Normal-Maps, usw.) aber unangetastet lässt.

Veröffentlichung
Zusätzliche
Folien
Code + Demo

Nicht-periodische Kachelung von prozeduralen Rauschfunktionen

Aleksandr Kirillov – HPG 2018

Funktionen für prozedurales Rauschen haben viele Anwendungen in der Computergrafik von Textursynthese bis hin zur Simulation atmosphärischer Effekte und Landschaftssymmetriespezifizierung. Rauschen kann man entweder im Vorausberechnen und als Werte in der Textur speichern oder direkt während der Nutzung der Anwendung ermitteln lassen. Diese Möglichkeit bietet einen Kompromiss zwischen Bildvarianz, Speicherverbrauch und Leistung.

Fortschrittliche Kachelungsalgorithmen können dazu verwendet werden, visuelle Musterwiederholung zu verringern. Mit der Wang-Kachelung kann eine Ebene auch mit wenigen Texturen nicht-periodisch in verschiedene Kacheln unterteilt werden. Die Kacheln können auf einer einzigen Texturkarte angeordnet werden, damit die GPU Hardware-Filterung nutzen kann.

In dieser Veröffentlichung stellen wir Modifikationen an mehreren gängigen prozeduralen Rauschfunktionen vor, die direkt Texturkarten mit dem kleinsten kompletten Wang-Kachelsatz erzeugen. Die in diesem Beitrag vorgestellten Ergebnisse ermöglichen eine nicht-periodische Kachelung dieser Rauschfunktionen und darauf aufbauenden Texturen, sowohl zur Laufzeit als auch als Vorverarbeitungsschritt. Diese Ergebnisse ermöglichen es auch, die Wiederholung von rauschbasierten Effekten in computergenerierten Bildern bei geringen Leistungskosten zu reduzieren und gleichzeitig den Speicherverbrauch zu erhalten oder sogar zu reduzieren.

Veröffentlichung

Publikation

Leistungsfähiges Nach-Beispiel-Rauschen durch Einsatz eines Histogramm-erhaltenden Blending-Operators

Eric Heitz, Fabrice Neyret (Inria) – HPG 2018 (Preis für bestes Paper)

Wir schlagen einen neuen Nach-Beispiel Rauschen-Algorithmus vor, der als Eingabe nur eine kleine Beispielanzahl von stochastischen Texturen benötigt, und daraus unendlich viele Ausgaben mit demselben Erscheinungsbild synthetisiert. Der Algorithmus funktioniert bei beliebigen Zufallsphasen-Eingaben und vielen Nicht-Zufallsphasen-Eingaben, die aber stochastischer und nicht-periodischer Natur sind (typischerweise Texturen aus der Natur wie Moos, Granit, Sand, Rinde und so weiter). Unser Algorithmus erstellt hochwertige Ergebnisse, die vergleichbar sind mit aktuellen Techniken zur Erstellung von prozeduralem Rauschen. Dabei ist er allerdings mehr als 20 Mal so schnell.

Veröffentlichung
Zusatzmaterial
Folien
Video

Nichtüberwachte intrinsische Einzelbild-Tiefendekomposition mit Bildsequenzen variierender Illumination

Louis Lettry (ETH Zürich), Kenneth Vanhoey, Luc Van Gool (ETH Zürich) – Pacific Graphics 2018 / Computer Graphics Forum

Intrinsische Dekomposition zerlegt eine fotografierte Szene in Albedo- und Schattierungs-Werte. Durch Entfernen von Schatten können Bilder „entlichtet“ werden, um sie dann für virtuelle Beleuchtungsszenen zu verwenden. Wir schlagen eine nichtüberwachte Lernmethode vor, um dieses Problem zu lösen.

Aktuelle Techniken setzen auf überwachtes Lernen: Dafür werden riesige Mengen an bekannten Dekompositionen benötigt, die schwer zu beschaffen sind. Wir trainieren stattdessen mit unmarkierten Bildern, die wir aus Zeitrafferaufnahmen von statischen Webcams erhalten. Wir setzen dabei voraus, dass Albedo per Definition ein statischer Wert ist und die Schattierung je nach Beleuchtung variieren. Diesen Sachverhalt übertragen wir in ein eng verknüpftes Training für Deep Learning.

Veröffentlichung
Zusatzmaterial
Zusätzlicher Code

Bibliografie
Folien
 

Effizientes Rendern von geschichteten Materialien mittels atomischer Dekomposition mit statistischen Operatoren

Laurent Belcour – ACM SIGGRAPH 2018

Wir haben einen neuartigen Arbeitsrahmen für die effiziente Analyse und Berechnung des Lichttransports in geschichteten Materialien abgeleitet. Unsere Ableitung besteht aus zwei Schritten: Zuerst zerlegen wir den Lichttransport in ein Set aus atomischen Operatoren, die auf den direktionalen Statistikwerten des Lichts basierend agieren. Im Speziellen bestehen unsere Operatoren aus Reflexion, Brechung, Streuung und Absorption. Die Kombination aus diesen Werten ermöglicht die Beschreibung der mehrfachen Lichtbrechung in geschichteten Materialien. Wir zeigen, dass die ersten drei direktionalen Momentumwerte (Energie, Mittelwert und Varianz) bereits eine zufriedenstellend genaue Zusammenfassung zulassen. Zweitens erweitern wir die Verdopplung-hinzufügen-Methode so, dass sie willkürliche Kombinationen dieser Operationen effizient zulässt. Während der Schattierung erfassen wir die direktionalen Momentumswerte in BSDF-Körpern. Wir verifizieren auf effiziente Weise, dass die entstehenden BSDF weitestgehend mit den tatsächlichen Körpern übereinstimmen. Im Gegensatz zu früheren Methoden unterstützen wir eine willkürliche Anzahl an Texturebenen und können auch das praktisch anwendbare und präzise Rendern von geschichteten Materialien sowohl in Offline- als auch Echtzeit-Implementierungen demonstrieren, die keine Vormaterialvorberechnung benötigen.

Veröffentlichung
Zusatzmaterial
Zusätzlicher Code
Bibliografie
Video
Folien

Eine adaptive Parametrisierung zur Materialbeschaffung und zum Rendern

Jonathan Dupuy and Wenzel Jakob (EPFL) – ACM SIGGRAPH Asia 2018

Eines der Schlüsselelemente für Physik-basierte Render-Systeme ist die detaillierte Spezifikationscharakterisierung der Interaktion von Licht und Materie für alle Materialien in einer Szene. Das wird typischerweise mit einer Bidirectional Reflectance Distribution Function (BRDF) erreicht. Trotz deren Vielseitigkeit bleibt der Zugang zu BRDF-Datensätzen aus der realen Welt begrenzt: Das liegt unter anderem daran, dass die Messungen das Scannen einer Domäne in 4 Dimensionen und in ausreichend hoher Auflösung erfordern. Ein sehr aufwendiger und oftmals unmöglich zeitraubender Prozess. Wir schlagen eine neue Parametrisierung vor, die sich automatisch an das Materialverhalten anpasst und die zugrundeliegende 4D-Domäne so verzerrt, sodass fast das gesamte Volumen in Regionen übertragen werden kann, in denen BRDF nicht-vernachlässigbare Werte annimmt und irrelevante Regionen stark komprimiert werden. Die Adaption erfordert lediglich eine schnelle 1D- oder 2D-Messung der retroreflektiven Werte der Materialien. Unsere Parametrisierung ist vereinheitlicht, da sie verschiedene Schritte kombiniert, die früher mehrfache Datenumwandlung erforderten: Dieselbe Kartierung kann gleichzeitig für die BRDF-Beschaffung, Speicherung verwendet werden und unterstützt Monte-Carlo-Beispielerzeugung.

Veröffentlichung
Video
Datenset Isotropes BRDF
Datenset Anisotropes BRDF
MERL-Datenbankvalidierung
C++ und Python-Code
Materialiendatenbank

Stochastische Schatten

Eric Heitz, Stephen Hill (Lucasfilm), Morgan McGuire (NVIDIA) 

In dieser Veröffentlichung schlagen wir einen Verhältniskalkulator für die Direktbeleuchtungsgleichung vor, mit dem wir analytische Beleuchtungstechniken mit stochastischen Raytracing-Schatten kombinieren und deren Korrektheit aufrechterhalten können. Unser Hauptbeitrag dazu besteht darin, zu zeigen, dass die Schattenbeleuchtung in das Produkt der unbeschatteten Beleuchtung und beleuchtungsgewichteten Schatten aufgeteilt werden kann. Diese Terme können separat berechnet werden, möglicherweise sogar mit unterschiedlichen Verfahren, ohne die Genauigkeit des finalen Ergebnisses, das aus deren Produkt entsteht, zu beeinträchtigen.

Die Formulierung erweitert den Einsatzbereich analytischer Beleuchtungstechniken auf Raytracing-Anwendungen, wo deren Einsatz bisher vermieden wurde, da sie keine Schatten umfassten. Wir nutzen solche Methoden, die zu scharfen und rauschfreien Schatten im Bild mit unbeschatteter Beleuchtung führen, und wir berechnen das Bild mit gewichteten Schatten durch stochastisches Raytracing. Der Vorteil der Beschränkung der stochastischen Berechnung auf das Bild mit gewichteten Schatten liegt darin, dass im finalen Ergebnis ein Rauschen nur im Schattenbereich sichtbar ist. Weiterhin entfernen wir Rauschen in einem separaten Prozess von beleuchteten Bereichen, sodass auch aggressive Rauschentfernung nur die Schatten übermäßig weichzeichnet, hochfrequente Schattendetails (Texturen, Normal-Maps, usw.) aber unangetastet lässt.

Veröffentlichung

Adaptive GPU-Tessellation mit Compute Shaders

Jad Khoury, Jonathan Dupuy und Christophe Riccio – GPU Zen 2 (noch nicht veröffentlicht)

GPU-Rasterisierung ist am effizientesten, wenn Grundformen in mehrere Pixel projiziert werden. Unter diesem Limit beginnt der Z-Buffer mit Kantenbildung und die Schattierungsrate sinkt dramatisch [Riccio 12]. Dadurch wird das Rendern von komplexen geometrischen Szenen sehr herausfordernd, weil alle ausreichend weit entfernten Polygone auf eine Größe projiziert werden, die kleiner ist als ein Pixel. Um diese Fehlprojektion zu reduzieren, gibt es eine einfache Lösung: Sie besteht in der prozeduralen Verfeinerung rauer Meshes, je näher sie der Kamera kommen. In diesem Kapitel wollen wir so eine prozedurale Verfeinerungstechnik für willkürliche Polygon-Meshes erarbeiten.

Veröffentlichung
Code

Linien- und Scheiben-Licht-Schatten-Effekte in Echtzeit mit linear transformiertem Cosinus

Eric Heitz (Unity Technologies) and Stephen Hill (Lucasfilm) – ACM SIGGRAPH Courses 2017

Vor Kurzem haben wir eine neue Echtzeit-Schattierungstechnik bei Flächenbeleuchtung vorgestellt, die bestimmt war für Lichter mit polygonen Formen. In dieser Gesprächsrunde wollen wir diese Flächenbeleuchtungsarbeitsumgebung erweitern, damit sie auch Lichter in Linien-, Kugel-, und Scheibenformen unterstützen kann.

Folien
Demo-Code
WebGL Demo fürQuadrat,Linie und Scheibenlichter

Mikrofacetten-Normal-Mapping für robustes Monte Carlo Path Tracing

Vincent Schüssler (KIT), Eric Heitz (Unity Technologies), Johannes Hanika (KIT) and Carsten Dachsbacher (KIT) – ACM SIGGRAPH Asien 2017

Normal-Mapping imitiert visuelle Details auf Oberflächen durch Verwendung von unechten Schatten-Normals. Das daraus entstehende Oberflächenmodell ist allerdings geometrisch unmöglich, weshalb Normal-Mapping oftmals als fundamental falscher Ansatz mit unvermeidbaren Problemen für das Monte-Carlo-Pathtracing betrachtet wird: Es zerstört entweder das Erscheinungsbild (schwarze Ränder, Energieverlust) oder den Integrator (unterschiedlicher Lichttransport nach vorn und nach hinten). In dieser Veröffentlichung präsentieren wir Normal-Mapping basierend auf Mikrofacetten, einem alternativen Weg, um geometrische Details vorzutäuschen, ohne die Robustheit des Monte-Carlo-Pathtracing zu beeinträchtigen, wodurch die genannten Probleme vermieden werden.

Veröffentlichung

Ein sphärisches, cap-erhaltendes Parametrisierungsverfahren für sphärische Verteilung

Jonathan Dupuy, Eric Heitz and Laurent Belcour – ACM SIGGRAPH 2017

Wir stellen ein neuartiges Parametrisierungsverfahren für sphärische Verteilung vor, das von einem Punkt innerhalb der Sphäre ausgeht, dem sogenannten Pivot. Der Pivot dient als zentraler Punkt für eine geradlinige Projektion, die solide Winkel auf die andere Seite der Sphäre projiziert. Durch diese sphärische Verteilung können wir eine neuartige parametrische Sphärenverteilung ableiten, die mittels einfacher, geschlossener Ausdrücke anhand der originalen Verteilung ausgewertet und durch Importance Sampling geprüft werden kann. Weiterhin zeigen wir, dass im Falle der erfolgreichen Beispielerzeugung und Integration der Originalverteilung über ein sphärisches Cap auch die transformierte Verteilung so gehandhabt werden kann. Wir nutzen dafür die Eigenschaften unserer Parametrisierung aus, um effiziente sphärische Beleuchtungstechniken abzuleiten, die robust, schnell und einfach zu implementieren sind und qualitativ hochwertigere Ergebnisse als frühere Arbeiten erzielen.

Veröffentlichung
Video

Eine praktische Erweiterung der Mikrofacetten-Theorie für die Modellierung variierender Schillereffekte

Laurent Belcour (Unity), Pascal Barla (Inria) – ACM SIGGRAPH 2017

Dünnfilm-Schillereffekte erlauben die Reproduktion der Lichteffekte von Leder. Für diese Theorie ist allerdings eine spektrale Render-Engine (zum Beispiel Maxwell Render) erforderlich, um die korrekte Integration der Erscheinungsbildänderungen abhängig vom Blickwinkel (dem sogenannten Goniochromatismus) sicherzustellen. Das liegt an der Kantenentstehung in der Spektraldomäne, da Echtzeit-Rendern nur mit drei Komponenten (RGB) für die gesamte Bandbreite des sichtbaren Lichts funktioniert. In dieser Arbeit zeigen wir, wie Sie Kanten von einem Dünnfilm-Modell entfernen, wie Sie die Mikrofacetten-Theorie einbinden und wie Sie alles in eine Echtzeit-Rendering-Engine integrieren. Damit wird die Anzahl reproduzierbarer Erscheinungsbilder mit dem Mikrofacettenmodell erweitert.

Veröffentlichung
Zusätzliches Material
Bibliografie
Video
Code
Folien

Lineare Licht-Schatten-Effekte mit linear transformiertem Cosinus

Eric Heitz, Stephen Hill (Lucasfilm) – GPU Zen (Buch)

In diesem Buchkapitel erweitern wir unsere Flächenbeleuchtungsarbeitsumgebung, die auf linear transformiertem Cosinus basiert, sodass sie auch lineare Lichter (oder Linienlichter) unterstützt. Linienlichter sind eine gute Annäherung an zylindrische Lichter mit einem kleinen, aber nicht vollständigem Null-Radius. Wir beschreiben, wie die Annäherung an diese Lichter mit linearen Lichtern erreicht wird, die eine ähnliche Leistungsfähigkeit haben und ähnliche Schatteneffekte erzeugen. Weiterhin diskutieren wir die Validität dieser Annäherung.

Veröffentlichung

Eine praktische Einführung in die Frequenzanalyse des Lichtteilchentransports

Laurent Belcour – ACM SIGGRAPH Courses 2016

Frequenzanalyse des Lichtteilchentransports ist Teil des physikbasierten Renderns (PBR) mit Singalverarbeitungswerkzeugen. Daher ist es darauf ausgerichtet, die Sampling-Rate vorauszusehen, Entrauschen durchzuführen, Kantenglättung durchzuführen und so weiter. Viele Methoden wurden vorgeschlagen, um spezifische Fälle des Lichtteilchentransports (Bewegung, Linsen usw.) anzugehen. Dieser Kurs zielt darauf ab, Konzepte vorzustellen und praktische Anwendungsszenarien für die Frequenzanalyse des Lichtteilchentransports in einem einheitlichen Kontext zu präsentieren. Für ein einfacheres Verständnis der Theorie wird die Frequenzanalyse gekoppelt mit praktischer Implementierung vorgestellt.

Kurs

Polygonale Licht-Schatten-Effekte in Echtzeit mit linear transformiertem Cosinus

Eric Heitz, Jonathan Dupuy, Stephen Hill (Ubisoft), David Neubelt (Ready at Dawn Studios) – ACM SIGGRAPH 2016

Shading mit Flächenbeleuchtung verleiht CG-Rendern ungeahnt realistische Effekte. Dazu müssen allerdings sphärische Gleichungen verwendet werden, die für Echtzeit-Rendering eine Herausforderung darstellen. In diesem Projekt entwickeln wir eine neue sphärische Verteilung, die es uns erlaubt physikalische Materialien mit polygonalen Lichtern in Echtzeit zu schattieren.

Veröffentlichung
Folien
MATLAB
Plots und Validierung
Vergleich mit der Technicolor-Technik
Demo
WebGL-Demo
BRDF-fähiger Code
Video

Weiterer Fortschritt hin zur Vereinigung der Mikrofacetten- und Mikroschuppen-Theorien

Jonathan Dupuy and Eric Heitz – EGSR 2016 (E&I)

Wir studieren die Verbindungen zwischen Mikrofacetten- und Mikroschuppen-Theorien aus der Perspektive der linearen Transporttheorie. Auf diese Weise können wir zusätzliche Einblicke gewinnen, mehrere Vereinfachungen identifizieren, verschiedene noch ungeklärte Fragen angehen und mögliche Wege in die Zukunft aufzeigen mit der Erweiterung der Vereinigung von Oberflächen- und Volumen-Streuungsmodellen. Zuerst stellen wir ein halb-unendliches, homogenes, Exponential-Freipfad-Medium vor, das (a) exakt denselben Lichttransport wie das Smith-Mikrooberflächenmodell und das inhomogene Smith-Medium produziert, welche kürzlich von Heitz et al. vorgestellt wurden, und (b) es uns erlaubt alle Smith-Maskierungs- und Schatteneffektfunktionen auf einfachere Weise abzuleiten. Zweitens untersuchen wir detailliert, welche neuen Aspekte der linearen Transporttheorie ein Volumen ermöglichen, das sich wie eine raue Oberfläche verhält. Wir zeigen, dass dies hauptsächlich aufgrund der Verwendung von asymmetrischen Verteilungen der Normals geschieht und erkunden, wie die Nichteinhaltung der Symmetrie den Lichtteilchentransport im Mikroschuppenvolumen beeinflusst, ohne die globale Wechselwirkung zu zerstören. Abschließend argumentieren wir, dass die Oberflächenprofile, die mit sehr rauen Smith-Mikrooberflächen konsistent wären, geometrisch unplausible Formen hätten. Um das zu überwinden, diskutieren wir eine Erweiterung der Smith-Theorie in den Volumenbereich, die NDF auf der gesamten Sphäre einschließt, um so ein einheitliches Reflexionsmodell zu erschaffen, das alles beschreiben kann von glatten Spiegeloberflächen bis hin zu halb-unendlichen, isotropen Streuungsmedien mit geringer und starker Rauheit.

Paper
Folien

We use cookies to ensure that we give you the best experience on our website. Click here for more information.