Definition:
360-Videos werden häufig als "sphärische Videos" oder "immersive Videos" bezeichnet. Dabei handelt es sich um Videoaufnahmen, bei denen der Blick in mehrere Richtungen gleichzeitig aufgenommen wird. Sie werden in der Regel mit einer speziellen Rundumkamera oder mit einer Reihe von separaten, miteinander verbundenen Kameras aufgenommen, die als kugelförmige Anordnung montiert sind. 360°-Videos können Live-Action (Film- oder Videografie ohne Animation), animiert (aus einer 3D-Szene aufgenommen) oder eine Mischung aus computergenerierten Grafiken und Live-Action sein. Nachdem die 360-Videos mit einer Technologie wie einer 3D-Spiele-Engine für die Anzeige vorbereitet wurden, werden sie vom Benutzer über ein Headset betrachtet.
360-Videos können nicht interaktiv oder interaktiv sein. Nicht-interaktive 360-Videos sind Erlebnisse, bei denen der Betrachter keinen Einfluss auf das Seherlebnis nehmen kann, außer vielleicht das Video anzuhalten oder den Kopf zu bewegen, um verschiedene "Kameraperspektiven" einzunehmen. Interaktive 360-Videos sind Erlebnisse, bei denen der Betrachter mit der Benutzeroberfläche oder anderen interaktiven Elementen interagieren kann, indem er seinen Blick oder einen Controller einsetzt.
Die Gelegenheit:
360-Videos bieten Kreativen die Möglichkeit, mit einer Vielzahl von Branchen zusammenzuarbeiten, die Inhalte in Form von Marketing oder Unterhaltung anbieten möchten. Die Produktion von 360°-Videos unterscheidet sich zwar teilweise von der Erstellung digitaler Inhalte, aber der Postproduktionsprozess ist relativ vergleichbar mit der Erstellung von Spielen und anderen digitalen MR-Inhalten.
Definition:
Diese Surround-Sound-Technik deckt Schallquellen sowohl unterhalb als auch oberhalb des Benutzers ab. Offiziell handelt es sich um eine "Vollkugel"-Technik, die aber auch für Audioquellen in der horizontalen Ebene geeignet ist. Ambisonics werden in einem Mehrkanalformat gespeichert. Anstatt jeden Kanal einem bestimmten Lautsprecher zuzuordnen, stellt Ambisonics das Klangfeld auf eine allgemeinere Weise dar. Das Schallfeld kann dann auf der Grundlage der Orientierung des Hörers gedreht werden, z. B. der Kopfdrehung des Benutzers in XR. Das Schallfeld kann auch in ein Format dekodiert werden, das der Lautsprecheranordnung entspricht. Ambisonics werden häufig mit 360-Grad-Videos kombiniert und als Audio-Skybox für entfernte Umgebungsgeräusche verwendet.
Die Gelegenheit:
Ambisonic Audio bedeutet zwar potenziell mehr Kosten - sowohl in Bezug auf den Speicher als auch auf das Produktionsbudget -, aber es verleiht Ihrem VR-Erlebnis eine vollständig immersive Klanglandschaft. Audio-Design und -Produktion sind für VR wichtiger als bisherige Darstellungsmethoden, und "3D-Sound" wird die meisten Virtual-Reality-Erlebnisse noch überzeugender und immersiver machen.
Definition:
Im Grunde ist Anti-Aliasing eine Technik, die die gezackten Linien an den Rändern dreidimensionaler Objekte glättet. Bei diesem Ansatz wird die Farbe einer Kante mit der Farbe der sie unmittelbar umgebenden Pixel geglättet. Anti-Aliasing ist vor allem in der VR wichtig, da zackige Kanten die Immersion und Präsenz beeinträchtigen können.
Die Gelegenheit:
Anti-Aliasing ist ein einfaches und bewährtes Mittel zur Verbesserung der visuellen Wiedergabetreue bei virtuellen 3D-Inhalten. 3D-Engines wie Unity ermöglichen es Entwicklern, die Forward Rendering verwenden, in vielen Fällen Multisample-Anti-Aliasing zu aktivieren. Beim Deferred Rendering ist zwar kein Multisample-Anti-Aliasing möglich, aber in diesen Fällen können die Entwickler Anti-Aliasing als Post-Effekt anwenden.
Definition:
Eine API oder "Anwendungsprogrammierschnittstelle" ist ein gängiges Konzept in der Softwareentwicklung, das bei der Entwicklung von VR- und AR-Inhalten zum Einsatz kommt. Im Wesentlichen handelt es sich um eine standardisierte Schnittstelle, über die sich Software mit einem Betriebssystem verbinden und dessen Ressourcen nutzen kann. APIs sind für den Nutzer eines VR- oder AR-Erlebnisses nicht sichtbar.
Die Gelegenheit:
Der Zugriff auf die Ressourcen und das Potenzial eines Betriebssystems und deren Nutzung ist einfacher, standardisiert und effizienter.
Definition:
Eine reine Softwarelösung für AR, die auf allen Android-Telefonen mit Android Nougat oder einer späteren Version des Betriebssystems funktioniert. Es wird mobile AR-Erlebnisse in großem Umfang ermöglichen, ähnlich wie ARKit es für iOS bietet. Das SDK selbst verfügt über ähnliche Funktionen wie ARKit. Google ist sich nicht sicher, ob ARCore in Android integriert wird oder ob es ein eigenständiges Produkt sein wird. Sie haben bestätigt, dass es nicht Teil der Daydream-Marke sein wird.
Die Gelegenheit:
Wenn ARCore so erfolgreich ist, wie Google hofft, dann bietet es einem großen Publikum eine zugängliche AR-Plattform. Das bedeutet natürlich ein großes Publikum für Ihre AR-Inhalte.
Definition:
Das Software Development Kit, das die Entwicklung von AR-Apps für Android-Geräte und ARCore ermöglicht.
Die Gelegenheit:
Ein bequemer und effizienter Weg, um Inhalte für ARCore-Geräte zu erstellen.
Definition:
Ein Framework, mit dem Sie Augmented-Reality-Erlebnisse für iPhone und iPad erstellen und starten können.
Die Gelegenheit:
Ein zugängliches Mittel, um AR-Erlebnisse für das große iOS-Publikum zugänglich zu machen
Definition:
Das Unity-Softwarepaket, das die Entwicklung von Apps ermöglicht, die auf ARKit für iOS ausgerichtet sind.
Die Gelegenheit:
Besser zugängliche, hochwertige AR-Entwicklung für iOS-Plattformen.
Definition:
Informationen - basierend auf berechneten Näherungen - über die Beleuchtung der Szene, die mit den aufgenommenen Videobildern einer AR-Sitzung verbunden ist.
Die Gelegenheit:
Mit AR Light Estimation können Sie sicherstellen, dass virtuelle Objekte, die über dem Kamerabild gerendert werden, so aussehen, als gehörten sie in die Umgebung, was für die Immersion unerlässlich ist.
Definition:
Eine Funktion, die die Art und Weise ändert, wie Audio von einer Audioquelle in den umgebenden Raum übertragen wird. Ein solches Plugin nimmt die Quelle und regelt die Verstärkung der Beiträge für das linke und rechte Ohr; in einer 3D-Engine wie Unity basiert die Berechnung auf dem Abstand und dem Winkel zwischen dem AudioListener und der Audioquelle.
Die Gelegenheit:
Überzeugenderer, immersiverer Sound, der den 3D-Charakter Ihrer VR-Inhalte unterstreicht.
Definition:
Eine Erweiterung des nativen Audio-Plugin-SDK, die es ermöglicht, die Art und Weise der Audioübertragung von einer Audioquelle in den umgebenden Raum zu ändern. Das eingebaute Panning von Audioquellen ist eine einfache Form von Spatial Audio - es nimmt die Quelle und reguliert die Verstärkung der Beiträge für das linke und rechte Ohr basierend auf dem Abstand und dem Winkel zwischen dem AudioListener und der Audioquelle. Dadurch erhält der Spieler einfache Richtungshinweise in der horizontalen Ebene.
Die Gelegenheit:
Dieses SDK bietet ein einfaches, anspruchsloses und effizientes Mittel, um das Potenzial der Audio-Spatializer-Funktionen zu nutzen.
Definition:
Unter Augmented Reality versteht man die Überlagerung von digital erstellten Inhalten mit der realen Welt. Augmented Reality - oder "AR" - ermöglicht es dem Nutzer, sowohl mit der realen Welt als auch mit digitalen Elementen oder Erweiterungen zu interagieren. AR kann den Nutzern über Headsets wie die HoloLens von Microsoft oder über die Videokamera eines Smartphones angeboten werden.
Sowohl in der praktischen als auch in der experimentellen Umsetzung kann die erweiterte Realität auch die Realitätswahrnehmung des Nutzers ersetzen oder beeinträchtigen. Diese veränderte Wahrnehmung könnte die Simulation eines Augenleidens zu medizinischen Schulungszwecken oder die schrittweise Verdeckung der Realität zur Einführung einer Spielwelt umfassen. Es ist erwähnenswert, dass es einen Punkt gibt, an dem Augmented Reality und Virtual Reality wahrscheinlich ineinander übergehen bzw. sich überschneiden. Siehe auch Mixed Reality in diesem Glossar.
Die Gelegenheit:
Während sich ein Großteil des Verbraucherinteresses, der Investitionstätigkeit und des Branchenhypes zunächst auf die virtuelle Realität konzentrierte, gewinnt die erweiterte Realität zunehmend an Bedeutung, da sie keine spezielle Hardware erfordert. Die Zugänglichkeit von AR, die die Sicht des Nutzers nicht vollständig einschränkt, und das enorme Potenzial der ungebundenen Nutzung haben ihre Popularität erhöht. Wie der phänomenale Erfolg von Pokémon GO und die rasche Verbreitung von AR als Werkzeug in der Industrie und an kreativen Arbeitsplätzen zeigen, hat AR die Chance, einen großen Erfolg zu erzielen und ein großes Publikum zu erreichen. Weitere Einblicke in die Möglichkeiten, die AR bietet, finden Sie im ersten und zweiten Teil des Unity-Blogs, der sich mit der Zukunft von Augmented Reality beschäftigt.
Einfache Definition:
Auf dem Kontinuum der gemischten Realität liegt die erweiterte Virtualität irgendwo zwischen AR und VR. Die genaue Definition bezieht sich darauf, Objekte der realen Welt in virtuelle Welten zu bringen, wo man mit ihnen interagieren kann. Man könnte es als Umkehrung - oder Spiegel - der erweiterten Realität betrachten.
Die erweiterte Virtualität ist vielleicht am besten als ein spezifisches Beispiel oder eine Umsetzung von MR zu verstehen. Die Verwendung des Begriffs "erweiterte Virtualität" ist ungenau, daher ist "erweiterte Virtualität" eine flexible Terminologie.
Die Gelegenheit:
Die erweiterte Virtualität stellt ein Mittel dar, um VR-Räume aus Sicht der Benutzeroberfläche intuitiver, vertrauter und "freundlicher" für neue Nutzer zu gestalten.
Definition:
VR bietet Filmemachern und Zuschauern ein enormes Potenzial, da es eine neue Art und Weise darstellt, Geschichten zu erzählen, das gesamte immersive Potenzial von VR zu nutzen und sich die Kraft der Präsenz zunutze zu machen. Es gibt viele verschiedene Beispiele für Cinematic VR, von linearen Erzählungen, an denen der Betrachter teilnehmen kann, bis hin zu verzweigten Geschichten und "Filmen" mit spielerischen Elementen. Auch wenn es unterschiedliche Interpretationen des Begriffs gibt, umfasst Cinematic VR im Wesentlichen die vielen Ansätze, bei denen sich Virtual-Reality-Inhalte Methoden des Filmemachens aneignen oder nutzen, um erzählerische Erfahrungen zu vermitteln.
Die Gelegenheit:
Wenn Sie ein Filmemacher sind, ist eine Revolution der Kreativität im Gange. Wenn Sie ein Zuschauer sind, wird der Film demnächst sehr viel abwechslungsreicher und spannender werden. Und wenn Sie Inhalte für VR erstellen, wie z. B. Spiele, kann Cinematic VR Ihnen die Türen öffnen, um Ihre Flügel auszubreiten und für neue Branchen zu entwickeln.
Definition:
Die Rechnereinheit ist die zentrale Komponente eines modernen Computers. Die Aufgabe der CPU ist es, die Anweisungen eines Computerprogramms auszuführen. Heutzutage sind CPUs in der Regel Mikroprozessoren, d. h. sie bestehen aus einer einzigen integrierten Schaltung.
Die Gelegenheit:
Mit dem Profiler einer Spiele-Engine können Entwickler sehen, wie stark die CPU beim Rendering belastet wird. Anhand dieser Daten können Sie Bereiche von VR-Inhalten optimieren, um ein besseres, komfortableres Erlebnis für die Nutzer zu gewährleisten.
Definition:
Die Reisekrankheit, die häufig bei langen Autofahrten oder Flügen auftritt, tritt auf, wenn sich Menschen durch den Raum bewegen, während ihr Gehirn sie für unbeweglich hält, da ihr Körper nicht zur Bewegung beiträgt. Die Cyber-Sickness hingegen tritt auf, wenn die Person unbeweglich ist, aber ein zwingendes Gefühl der Bewegung hat, das durch die Exposition gegenüber wechselnden visuellen Bildern hervorgerufen wird. (Arns und Cerney, 2005)
Das Gefühl der Cyberkrankheit ist jedoch mit der Reisekrankheit vergleichbar.
Es gibt nicht nur einen einzigen Faktor, der die Reisekrankheit verursacht. So können z. B. Elemente wie Verzögerung, Bildwiederholfrequenz und Aktualisierungsrate der visuellen Anzeige Übelkeit verursachen. Weitere Faktoren, die die Krankheit beeinflussen können, sind Kontrast, Auflösung, Farbe, Sichtfeld, Sichtbereich, binokulares Sehen, Szeneninhalt, Flimmern und Kamerabewegung.
Schon früh in der aktuellen VR-Generation galt die Simulationskrankheit als weit verbreitet, und viele Nutzer assoziieren sie nach wie vor negativ mit VR. Es ist inzwischen allgemein anerkannt, dass die Hauptverantwortung für die Verhütung von Cyberkrankheiten beim Inhalt und nicht bei der Hardware liegt. Viele glauben, dass die Nutzer durch die Nutzung eine Toleranz gegenüber der Cyberkrankheit entwickeln können. Es bleibt noch viel über die Erfahrung zu lernen, insbesondere über die Auswirkungen auf jüngere Nutzer.
Die Gelegenheit:
Dies stellt eine große Herausforderung dar, sowohl für einzelne Projekte als auch für den Ruf und das Potenzial der VR insgesamt. VR-Inhalte, die Cyber-Sickness auslösen, können die Akzeptanz stark einschränken und dem Ruf der VR schaden. Stellen Sie Nachforschungen an. Und viele Tests. Glücklicherweise gibt es in der Branche inzwischen bewährte Praktiken für den Umgang mit Cyberkrankheiten.
Definition:
Die Direct3D Transformation Pipeline ist eine Grafik-Transformationspipeline speziell für die Direct3D-Grafik-API für Microsoft Windows. Diese Implementierung einer Grafik-Transformationspipeline verwendet drei direkte 3D-Matrizen: Welttransformation, Ansichtstransformation und Projektionstransformation. Direct3D-Matrizen funktionieren wie die in High-Level-Grafik-Transformationspipelines.
Die Gelegenheit:
Eine Grafik-Transformationspipeline ist verfügbar, die auf die Arbeit mit Direct3D zugeschnitten ist.
Definition:
Kameras im Innern des kopfgetragenen Displays können erkennen, in welche Richtung der Benutzer schaut. Eye Tracking kann als neue Eingabeachse verwendet werden, zum Beispiel für das Anvisieren feindlicher Flugzeuge in einem Dogfighting-Spiel. Das FOVE zum Beispiel ist ein HMD, das auf Kickstarter vorgestellt wurde und Eye-Tracking-Funktionen und ein SDK für foveated Rendering verspricht.
Eye Tracking ist zwar keine Voraussetzung für foveated Rendering, kann aber durch die Möglichkeit, den detailreichen Bereich je nach Blickrichtung des Nutzers zu verschieben, erhebliche Verbesserungen bringen. Außerdem fällt es neuen Nutzern oft schwer, die natürliche Neigung zu überwinden, sich mit den Augen umzusehen. Das Problem ist, dass HMD-Optiken in der Regel am besten funktionieren, wenn man direkt durch sie hindurch auf die Mitte des Bildschirms blickt; im Idealfall bewegt der Benutzer seinen Kopf, um sich umzusehen. Eye Tracking ist der erste Schritt, der es den Nutzern ermöglicht, ihre Augen zur natürlichen Verfolgung in VR zu verwenden.
Die Gelegenheit:
Ein Weg, um komfortablere, intuitivere und immersivere VR-Inhalte zu liefern.
Definition:
Computer Vision Technologie zur Gewinnung von Daten aus Standbildern und Videosequenzen durch Verfolgung bestimmter Gesichtsmerkmale in Echtzeit.
Die Gelegenheit:
Überzeugendere und natürlichere Spielcharaktere und Interaktionen, die das Erzählen von Geschichten, die Immersion und die Präsenz fördern und gleichzeitig das Potenzial für innovative neue Interaktionsmechanismen bieten.
Definition:
Das Sichtfeld ist mit dem Blickfeld verwandt und umfasst den Raum, den ein Benutzer von einer bestimmten Position aus sehen kann, auch wenn er Augen, Kopf und Nacken bewegt.
Die Gelegenheit:
Zusammen mit dem Sichtfeld ist das Sichtfeld die Betrachterperspektive, auf der die Kinematographie oder das Framing einer bestimmten VR-, AR- oder MR-Erfahrung aufgebaut ist.
Definition:
Das Sichtfeld ist alles, was Sie sehen können, wenn Sie geradeaus schauen. FOV ist der Umfang Ihrer natürlichen Sicht, sowohl in der Realität als auch bei MX-Inhalten. Das durchschnittliche menschliche Sichtfeld beträgt etwa 200 Grad.
Bei der Untersuchung von Virtual-Reality-Headsets - auch bekannt als Head-Mounted Displays oder HMDs - werden Sie feststellen, dass es eine Spezifikation für das Sichtfeld gibt. Die meisten aktuellen VR-Headsets haben ein minimales Sichtfeld von 90 bis 110 Grad, was eine Grundvoraussetzung für ein großartiges VR-Erlebnis ist. Je größer das Sichtfeld ist, desto mehr von der Umgebung kann der Nutzer sehen, da sie sich bis an den Rand seines Blickfelds erstreckt, und desto intensiver ist das Erlebnis, das er hat. Ähnlich wie der Unterschied zwischen einer IMAX-Kinoleinwand und einer normalen Kinoleinwand. Die IMAX-Leinwand ist viel größer und nimmt daher einen größeren Teil des Sichtfeldes ein, so dass man mehr sehen kann, was zu einem noch intensiveren Erlebnis führt.
Ein weites Sichtfeld lässt sich nur schwer erreichen, da die Grenzen der Objektivoptik - chromatische Aberration und tonnenförmige Verzeichnung - immer größer werden und die Optik selbst größer oder komplexer sein muss. Wie bei einem Foto, das mit einem Fischaugenobjektiv aufgenommen wurde, werden die Bilder auf dem Bildschirm des HMD verzerrt, um die Optik des HMD zu berücksichtigen. Darüber hinaus wird durch die Erweiterung des Sichtfelds die verfügbare Bildschirmauflösung "gestreckt", d. h. die Auflösung muss erhöht werden, um die gleiche Pixeldichte bei höheren Sichtwinkeln beizubehalten - die potenziellen Auswirkungen können durch die Verwendung von Multi-Res-VR-Shading und foveated Rendering gemildert werden.
Es ist auch erwähnenswert, dass einige Headsets - wie z. B. die HoloLens - ebenfalls ein begrenztes Sichtfeld aufweisen. Man könnte das Sichtfeld einer Smartphone-AR-Erfahrung als die verfügbare Bildschirmgröße verstehen, obwohl dies keine strenge technische Definition ist.
In seltenen Fällen wird das Sichtfeld auch als Sichtfeld bezeichnet. Siehe auch: Feld der Aufmerksamkeit.
Die Gelegenheit:
Wenn Sie ein HMD-Hersteller sind, müssen Sie über FOV-Probleme nachdenken. Für die Ersteller von Inhalten legen die FOV-Beschränkungen der Hardware die "Leinwand" fest, auf der Ihre VR- oder AR-Vision gemalt werden kann, und sind daher ein wichtiger Faktor - insbesondere für Multiformat-Veröffentlichungen.
Definition:
Indem sie die menschliche Biologie ergänzen, werden fortschrittliche VR-Rendering-Engines in der Lage sein, mehr Zeit auf das Zentrum des Gesichtsfeldes zu verwenden und weniger Details in den Randbereichen des Sichtfeldes darzustellen.
Der Computer kann die gesamte Szene schneller rendern, wenn er mit einer niedrigeren Auflösung oder mit vereinfachten Objekten arbeiten kann. Da das menschliche Auge in der Mitte des Gesichtsfeldes mehr Details wahrnimmt, gibt es in jedem Bild eine Menge Details, die wir gar nicht sehen. Durch das Rendern mit niedriger Qualität am Rand des Bildes kann der Computer entweder mehr Zeit für das Rendern von Details in der Mitte aufwenden oder ein einzelnes Bild schneller rendern.
Die Gelegenheit:
Foveated Rendering bietet enorme Geschwindigkeitsvorteile. Ebenso bietet es mehr Speicherplatz für die GPU und mehr Freiheit, um Ihre Ideen in VR zu verwirklichen, ohne durch die Anforderungen an das Rendern ganzer Szenen in der höchsten Auflösung eingeschränkt zu sein.
Definition:
"Frames-Per-Second" - oder kurz FPS - bezeichnet die Anzahl der Aktualisierungen eines Bildes auf dem Bildschirm pro Sekunde.
Die Gelegenheit:
Je höher die Bilder pro Sekunde sind, desto flüssiger erscheinen die Bewegungen und desto komfortabler ist das VR-Erlebnis. Dies ist für die virtuelle Realität äußerst wichtig, da langsame oder abgehackte Bewegungen häufig zu Simulationskrankheit führen. Damit sich die Nutzer beim Erleben von VR wohlfühlen, sollten sie sicherstellen, dass sie ein VR-Headset kaufen, das mindestens 90 FPS für Desktop- oder Konsolen-VR und mindestens 60 FPS für mobile Geräte erreicht. Die meisten VR-Headsets auf dem Markt erreichen heute 60 bis 120 Bilder pro Sekunde. Diese wird auch als Bildwiederholfrequenz bezeichnet und manchmal in Hertz angegeben - zum Beispiel 90 Hz.
Definition:
Die Eigenschaften der nahen und fernen Clipebene bestimmen, wo der Blickpunkt einer Kamera in einer Szene beginnt und endet. Die Ebenen sind senkrecht zur Kamerarichtung angeordnet und werden von der Kameraposition aus gemessen. Die nahe Ebene ist der nächstgelegene Ort, der gerendert wird, und die ferne Ebene ist der am weitesten entfernte. Die Ebenen des nahen und fernen Ausschnitts beschreiben zusammen mit den Ebenen, die durch das Sichtfeld der Kamera definiert sind, den sogenannten Kamerastumpf. Beim Frustum Culling werden Objekte, die vollständig außerhalb dieses Bereichs liegen, nicht angezeigt. In 3D-Engines wie Unity erfolgt das Frustum Culling unabhängig davon, ob Sie Occlusion Culling in Ihrem Spiel verwenden.
Die Gelegenheit:
Frustum Culling kann die Leistung in der virtuellen Realität erheblich verbessern und dazu beitragen, dass das Erlebnis komfortabler, beeindruckender und immersiver wird.
Definition:
Verfolgung der Richtung und Bewegung der Augen eines Benutzers und manchmal Verwendung der verfolgten Daten als Eingabe. Siehe auch: Kopfverfolgung.
Die Gelegenheit:
Eine Methode, die eine sehr subtile, nuancierte Benutzerkontrolle und -eingabe ermöglicht, und eine Möglichkeit, Daten darüber zu gewinnen, wie Benutzer mit einer bestimmten Erfahrung interagieren. Die Blickverfolgung ist auch ein leistungsfähiges Instrument für die Barrierefreiheit, da sie Nutzern mit eingeschränkter Bewegungsfreiheit eine Möglichkeit zur Interaktion bietet.
Definition:
Die Grafiktransformationspipeline ist eine bewährte Methode, um Objekte, die in Grafiksoftware, Spiel-Engines und dergleichen erstellt wurden, an den vorgesehenen Platz in einer Szene und schließlich in die Sicht des Benutzers zu bringen. Grafiktransformationspipelines funktionieren bei VR und AR auf die gleiche Weise wie bei herkömmlichen 3D-Darstellungsmethoden.
Die Gelegenheit:
Eine zuverlässige, bewährte Methode, um sicherzustellen, dass Ihre Objekte in einer VR- oder AR-Szene wie beabsichtigt erscheinen. Grafiktransformationspipelines und die zugehörigen Matrizen werden häufig von einer 3D-Spiele-Engine wie Unity bereitgestellt. Das bedeutet, dass Sie sich nicht allzu viele Gedanken über die Reise Ihrer 3D-Objekte zu ihrem VR- oder AR-Zuhause auf dem Bildschirm des Benutzers machen müssen.
Definition:
Eine Grafikverarbeitungseinheit besteht aus einer Komponente - d. h. einer elektronischen Schaltung -, die speziell zur Beschleunigung der Bilderzeugung innerhalb eines Bildspeichers eingesetzt wird. In diesem Fall werden solche Bilder für die Anzeige auf einem Bildschirm oder ähnlichem erstellt. Sie finden sich in Personalcomputern, Workstations, Spielkonsolen, mobilen Geräten und vielen anderen Orten. Die virtuelle Realität stellt erhebliche Anforderungen an den Grafikprozessor, vor allem weil die Darstellungsmethode unterschiedliche Bilder für das linke und das rechte Auge des Benutzers erzeugen muss.
Die Gelegenheit:
Die Verbraucher müssen eine beträchtliche Summe investieren, um genügend GPU-Leistung für High-End-VR-Lösungen wie Oculus Rift und HTC Vive zu erhalten. Während die Kosten das potenzielle Publikum für VR erheblich einschränken können, sind zahlreiche Methoden zur Optimierung der GPU-Leistung in der virtuellen Realität entwickelt worden, von denen viele in diesem Glossar definiert werden.
Definition:
Haptik simuliert und stimuliert den Tastsinn, indem sie verschiedene Kräfte - meist Vibrationen - auf den Benutzer ausübt, z. B. über Eingabegeräte oder spezielle haptische Wearables. Haptik wird verwendet, um ein Objekt oder eine Bewegung auf dem Bildschirm greifbar zu machen. Das klassische Beispiel sind vibrierende Game-Controller, aber auch Vibrationen, die über ein Smartphone-Display übertragen werden, und moderne Ansätze wie Ultraschall-Lautsprecher-Arrays, die Texturen in die Luft projizieren, die der VR-Nutzer bei der Interaktion mit dem Inhalt spüren kann.
Die Gelegenheit:
Eine weitere Möglichkeit zur Verbesserung der VR-Immersion und insbesondere der Präsenz in VR.
Definition:
Ein Virtual-Reality- oder Augmented-Reality-Headset hat in der Regel die Form eines brillenähnlichen Geräts, das der Nutzer auf dem Kopf trägt und das die Augen bedeckt oder umschließt. VR-Headsets enthalten in der Regel einen Bildschirm und Linsen, mit denen der Nutzer in die virtuelle Welt sehen kann, oder einen durchsichtigen Bildschirm, auf dem Augmented-Reality-Inhalte angezeigt werden können. Viele verschiedene Headsets bedienen mehrere unterschiedliche Hardware-Plattformen, und vom Telefon bis zur Konsole kann alles VR-Inhalte ausgeben. Das bedeutet, dass es am besten ist, mit kreativen Tools und Technologien zu arbeiten, die so viele verschiedene VR-Plattformen wie möglich unterstützen.
Die Gelegenheit:
Das VR-Headset ist die Grundlage der modernen virtuellen Realität und hat die Vorlage geschaffen, die nun von AR und anderen HMDs befolgt wird. Die Technologie hat in den letzten 50-60 Jahren einen langen Weg zurückgelegt, und aus den schwerfälligen, unbequemen und sehr teuren VR-Headsets der frühen 70er Jahre ist heute etwas geworden, das in etwa die Größe einer Ski- oder Snowboardbrille hat. Einige VR-Headsets verwenden sogar Ihr Telefon als Bildschirm, wie Samsung Gear VR oder Google Cardboard. Achten Sie bei der Suche nach VR-Headsets darauf, ob die Bildschirme eingebaut sind oder ob Sie Ihr Mobiltelefon benutzen müssen. Wenn Sie das beste immersive Erlebnis suchen, sind High-End-VR-Headsets wie die Oculus Rift oder HTC Vive eine Überlegung wert. Aber denken Sie daran, dass High-End-VR-Headsets einen High-End-Computer benötigen, um sie zu betreiben. Wenn Sie auf der Suche nach einem qualitativ hochwertigen mobilen VR-Erlebnis sind, bieten Samsung Gear VR und Google Daydream nuanciertere Erfahrungen als die VR-Viewer aus Pappe; letztere sind extrem erschwinglich und eine gute Möglichkeit, die grundlegende Einfachheit von VR zu demonstrieren.
Definition:
Mit verschiedenen Ansätzen überwacht und verfolgt das Head-Tracking die Position und die Bewegungen des Kopfes und des Halses eines bestimmten Benutzers und bietet so ein potenzielles Mittel für die Eingabe und Interaktion.
Wenn beispielsweise Hals und Kopf des Benutzers leicht zu einer Seite geneigt sind, kann sich bei aktivierter Kopfverfolgung das, was der Benutzer auf dem HMD sieht, in denselben Winkel verschieben. Der Benutzer kann auch den Hals strecken, um sich umzusehen oder über etwas hinwegzusehen. Derselbe Benutzer könnte eine Bewegung wie "auf den Boden schauen" ausführen, um eine bestimmte Spielaktion zu aktivieren.
Die Gelegenheit:
Head-Tracking ist ein Kernstück der VR - eine Chance, Welten zu schaffen, die der Benutzer auf dieselbe Weise erkunden kann, wie er mit der realen Welt interagiert.
Definition:
Unter Immersion versteht man das vollständige Eintauchen des Nutzers in eine virtuelle Welt. Während sich Präsenz in VR speziell auf das Gefühl oder die unterbewusste Überzeugung bezieht, dass man in einer bestimmten Erfahrung existiert, ist Immersion eher ein allgemeiner Begriff für das völlige Umfangenwerden und das Vergessen der Realität. In der VR nimmt die Immersion einen praktischen Sinn an, da Augen, Ohren und manchmal sogar Hände und Körper des Nutzers mit einbezogen werden und so jegliche Hinweise oder sensorische Eingaben aus der Realität ausblenden.
Die Gelegenheit:
Das Eintauchen ist die Hauptstärke von VR - und einiger AR-Kreationen - egal, ob Sie Ihre Nutzer in ein überzeugendes Erlebnis eintauchen lassen oder sich selbst in ein solches. Das Eintauchen in die Materie macht den Reiz von VR aus und bietet die Möglichkeit, das Publikum zu begeistern.
Definition:
Der Begriff "immersive Erlebnisse" geht der aktuellen Generation von VR und AR lange voraus, obwohl er auch Erlebnisse umfasst, die diese Formen nutzen - und potenziell alle MR- und XR-Inhalte. Der Begriff wurde sogar verwendet, um spezielle Ansätze für das Design von Websites und Fahrgeschäften zu beschreiben. Im Zusammenhang mit VR bezieht sich der Begriff jedoch auf vollständig interaktive, minimal interaktive und nicht spielerische Erfahrungen. Diese können sowohl als echte VR als auch als 360°-Video angeboten werden. Der Begriff ist sehr weit gefasst - ähnlich wie XR -, umfasst aber in diesem Zusammenhang nicht die traditionellen digitalen und filmischen Erlebnisse, die über einen herkömmlichen Flachbildschirm konsumiert werden.
Die Gelegenheit:
Eine Chance, Nutzer einzubinden, neue kreative Formen zu erforschen, zu unterrichten, zu unterhalten, zu schulen, zu bedienen, zu fördern und vieles mehr.
Definition:
Unterhaltungs-, Werbe- und Erlebnisinhalte, die die reale Welt mit VR oder AR kombinieren, sowie andere Formen wie das Schreiben von Geschichten und das Drehen von Filmen.
Die Gelegenheit:
Eine Gelegenheit, Inhalte für Vergnügungsparks, Spielhallen, Einkaufszentren und viele andere physische Orte zu erstellen, die einen breiten Zugangspunkt bieten können, über den die Öffentlichkeit VR erstmals erleben kann.
Definition:
Eine IMU - oder Inertialmesseinheit - ist ein elektronisches Gerät, das Bewegungen mit verschiedenen Mitteln und Technologien erfassen kann. IMUs bestehen aus einem Beschleunigungsmesser, einem Gyroskop oder einem Kompass, um die absolute Drehung des Geräts mit sehr geringer Latenz zu messen, und werden z. B. bei der Kopfverfolgung eingesetzt. In Kombination mit optischen Tracking-Systemen kann eine IMU zur Bestimmung der Blickrichtung eines HMD verwendet werden.
Wie bei jedem Tracking-System sind auch bei einer IMU die Latenzzeit und die Genauigkeit entscheidende Faktoren. Im Allgemeinen werden diese Funktionen nicht beworben und unterscheiden sich nicht wesentlich zwischen den Geräten. Es ist erwähnenswert, dass die Samsung GearVR über eine eigene IMU verfügt, im Gegensatz zu Google Cardboard und Daydream, die sich beide darauf verlassen, was die eingebaute IMU eines bestimmten Telefons für die Headsets bringt.
Die Gelegenheit:
Dieselbe Technologie, mit der sich das Handy vom Quer- ins Hochformat drehen lässt oder die Neigungssteuerung für Handyspiele ermöglicht, wird auch in VR-HMDs verwendet, um die virtuelle Kamera an die Kopfrichtung des Benutzers anzupassen. Das bietet die Möglichkeit für alle Arten von innovativen Formen der Steuerung und Immersion in VR-Erlebnisse.
Definition:
Eine Eingabe bietet eine Möglichkeit, mit einer Maschine, einem Computer oder einem anderen Gerät zu interagieren. Im Falle von VR und AR bezieht sich der Begriff "Input" auf die Art der Steuerung, die Sie für die virtuelle Realität und verwandte Formen verwenden werden. Damit ist höchstwahrscheinlich Motion Tracking mit Controllern gemeint, aber viele VR-, AR- und verwandte Erlebnisse lassen den Benutzer mit Maus und Tastatur oder einem Gamepad interagieren.
Mit zunehmender Reife der VR werden viele alternative Formen der Eingabe verfügbar und erschwinglich, von Handschuhen, die die Bewegungen einzelner Finger verfolgen, bis hin zu Körperanzügen, die es ermöglichen, den gesamten Körper in einer VR-Erfahrung zu verfolgen.
Die Gelegenheit:
Für Designer bieten Eingaben viele Möglichkeiten, ungewöhnliche Spielmechaniken anzubieten. Für die Nutzer sind sie ein Mittel, um mit digitalen Welten zu interagieren und sich wirklich in diese einzutauchen. Eingabemethoden, die nicht zu den VR-Inhalten passen, die sie bedienen, können dazu beitragen, den Benutzer von der Erfahrung zu trennen und das größte Potenzial der Form - die Immersion - zu untergraben. Daher sollten 3D-Ersteller bei der Entscheidungsfindung über den Input gründlich nachdenken.
Definition:
Die beiden wichtigsten Desktop-Virtual-Reality-Plattformen - die HTC Vive und die Oculus Rift - benötigen beide entweder eine Kamera oder einen "Leuchtturm", der an einer festen Position im Raum außerhalb des HMD selbst angebracht wird. Das ist es, was das Outside-in-Tracking ausmacht. Geräte wie Windows Immersive Mixed Reality-Headsets und Microsoft HoloLens verwenden eine Technik namens visuelle Odometrie, um Bilder von Kameras zu analysieren, die am HMD selbst angebracht sind und dazu dienen, die Position des Geräts relativ zur Umgebung zu bestimmen. Die letztgenannte Methode kann im Gegensatz zu externen Kameraaufstellungen als Inside-Out-Tracking verstanden werden.
Die Gelegenheit:
Während die Hardware-Konventionen in erster Linie in den Händen der Plattformbetreiber selbst liegen, erhöhen die beiden verfügbaren Optionen die Anzahl der Umgebungen, in denen VR und AR relevant sind, und damit die potenzielle Landschaft der Zielgruppen und Erfahrungen.
Definition:
Der gemessene Abstand zwischen den Pupillen der Augen eines bestimmten Benutzers. IPD kann als eine Art "Basismessung" verstanden werden, die eine Grundlage für die Skalierung in VR bietet. Bei einigen HMDs lässt sich die horizontale Verschiebung der Linsen physisch einstellen, um sie besser an die IPD des jeweiligen Nutzers anzupassen.
Die Gelegenheit:
Während die Hardware-Konventionen in erster Linie in den Händen der Plattformbetreiber selbst liegen, erhöhen die beiden verfügbaren Optionen die Anzahl der Umgebungen, in denen VR und AR relevant sind, und damit die potenzielle Landschaft der Zielgruppen und Erfahrungen.
Definition:
Die Latenzzeit ist die Geschwindigkeit, mit der die virtuelle Welt auf die Bewegungen des Nutzers reagiert. Eine virtuelle Welt mit hoher Latenzzeit könnte man als Lag bezeichnen. Als einfache Regel gilt: Je geringer die Latenzzeit ist, desto komfortabler ist das Erlebnis. Als Faustregel gilt, dass die Latenzzeit unter 20 Millisekunden liegen sollte. Je geringer die Zahl der Millisekunden ist, desto besser ist das Erlebnis.
Latenz kann sich auch auf die Geschwindigkeit beziehen, mit der eine virtuelle Welt für den Benutzer aktualisiert wird.
Die Gelegenheit:
Geringe Latenzzeiten wirken der Cyber Sickness entgegen und fördern so das Eintauchen und die Präsenz. Auf einer noch grundlegenderen Ebene ist es ein Mittel, um sich in einer virtuellen Welt wohl zu fühlen.
Wenn es um die Aktualisierung von Welten geht, macht eine möglichst geringe Latenzzeit die Welten überzeugender und die interaktiven Erfahrungen lohnender.
Die Latenzzeit ist ein wesentlicher Faktor für die Gesamtqualität eines XR-Erlebnisses.
Definition:
In der Lichtfeldtechnologie sind verschiedene Bildverarbeitungs- und Anzeigetechnologien, Hardware und Bildverarbeitungslösungen zusammengefasst, die die Aufnahme von Bildern und Videos ermöglichen, die nach der Aufnahme verändert werden können. Das Ergebnis: Blende und Schärfe in Videoinhalten können im Nachhinein und möglicherweise innerhalb der individuellen Erfahrung eines einzelnen Nutzers angepasst werden. Die von der Firma Lytro entwickelten Lichtfeldkameras funktionieren im Grunde genommen ähnlich wie heutige Digitalkameras. Sie verwenden jedoch ein Mikrolinsen-Array, das aus etwa 200.000 winzigen Linsen besteht, die dazu dienen, unzählige unterschiedliche Perspektiven einzufangen, da das Licht aus verschiedenen Winkeln auf den Prozessor der Kamera trifft. Im Gegensatz dazu erfasst der Bildsensor einer herkömmlichen Digitalkamera das Licht, das aus einer einzigen Perspektive einfällt, und imitiert damit die Grundlagen einer traditionellen Filmkamera.
Ein Großteil der Arbeit wird auch durch Verarbeitungs- und Kalibrierungssoftware erledigt. Siehe auch: Lichtfeld-Video.
Die Gelegenheit:
Die Lichtfeldtechnologie bietet das Potenzial für viel nuanciertere, realistischere und variablere 360°-Video-, VR-, AR- und MR-Inhalte, mit wildem Potenzial für innovative Interaktionen und der Möglichkeit für Nutzer, sich durch Videoerlebnisse zu bewegen, ohne am ursprünglichen Blickwinkel der aufnehmenden Kamera verankert bleiben zu müssen.
Definition:
Mit einem einzigartigen Aufbau, der eine herkömmliche DSLR-Videokamera und eine Lytro Illum-Kamera - letztere ist eine Lichtfeldkamera - kombiniert, hat ein Team von Akademikern aus Berkeley und San Diego ein Hybridgerät gebaut, das Lichtfeldvideo auf Verbraucherebene ermöglicht. Typischerweise haben Lichtfeldkameras eine maximale Bildrate von nur 3 FPS, was sie für Videos ungeeignet macht. Dieser neue Ansatz bringt alle Vorteile von Lichtfeldkameras für die Videoarbeit mit sich, d. h. die Möglichkeit, den Fokus neu zu setzen, den Blickwinkel zu ändern, die Blende zu verändern und vieles mehr, und das alles nach dem Zeitpunkt der Videoaufnahme.
Die Gelegenheit:
Eine aufstrebende Technologie, die 360°- und anderen Formen von immersiven Videos ein enormes Potenzial und eine große Flexibilität in Bezug auf den Postproduktionsprozess und die interaktive Gestaltung und Kreativität verleiht. Im weiteren Sinne bietet die Lichtfeldtechnologie Möglichkeiten zur Simulation realer Hinweise auf Fokus, Perspektive und Entfernung in VR- und 360°-Videoinhalten.
Definition:
Die Möglichkeit, sich in einem Erlebnis umzusehen, ist wahrscheinlich eine der grundlegendsten Stärken von VR. Viele frühe VR-Technologien wurden jedoch durch die Tatsache untergraben, dass schnelle Bewegungen des Benutzers zu verschwommenen Bildern führen, Unbehagen hervorrufen und die Immersion unterbrechen konnten. Eine Anzeige mit geringer Persistenz bietet eine Möglichkeit, dieses Problem zu lösen.
Als Teil der Daydream-Spezifikation von Google stellt ein Modus mit geringer Persistenz für Smartphone-Displays ein wichtiges Unterscheidungsmerkmal dar, das das Angebot von der "Verwendung eines Smartphones mit einigen Linsen" zu einem echten VR-HMD macht, wenn auch mit der Zugänglichkeit von mobilen Plattformen. Die Samsung Gear VR schaltet das Display in diesen speziellen Modus, wenn sie in das HMD eingesetzt wird und kann manuell über den Entwicklermodus der Gear VR aktiviert werden. In diesem Modus scheint das Gerät zu flimmern, wenn es von außerhalb des HMD betrachtet wird. Aus diesem Grund ist es wichtig, dass der Zustand der geringen Persistenz nur vorübergehend ist.
Die Gelegenheit:
Eine immer raffiniertere Methode, um den Nutzern die Freiheit zu geben, sich so zu bewegen, wie sie wollen, und echte Präsenz in den von Ihnen geschaffenen Welten zu genießen.
Definition:
Ein Mixed-Reality-Erlebnis ist ein Erlebnis, bei dem die reale Umgebung des Nutzers und digital erstellte Inhalte nahtlos ineinander übergehen, wobei beide Umgebungen nebeneinander bestehen und miteinander interagieren können. Sie ist häufig in VR-Erlebnissen und Installationen zu finden und kann als ein Kontinuum verstanden werden, auf dem sowohl reine VR als auch reine AR zu finden sind. Vergleichbar mit Immersive Entertainment/Hyper-Reality.
Mixed Reality wird als Marketingbegriff sehr breit verwendet, und es existieren heute viele alternative Definitionen, von denen einige AR-Erlebnisse oder Erlebnisse umfassen, die sich zwischen VR und AR hin und her bewegen. Die obige Definition kristallisiert sich jedoch immer mehr als die vereinbarte Bedeutung des Begriffs heraus.
Die Gelegenheit:
Auch wenn die gemischte Realität viele gestalterische Herausforderungen mit sich bringt und noch viele Fortschritte in Bezug auf die Plattformen, die sie beherbergen und unterstützen, erforderlich sind, bietet sie doch eine enorme Chance, dem Publikum durch MR eine Vielfalt von Erfahrungen und Darstellungsmethoden zu vermitteln. Das sollte bedeuten, dass mehr Inhalte ein breiteres Spektrum von Menschen erreichen und bedienen können, einschließlich derer, die traditionelle VR oder AR nicht für ihre Fähigkeiten, ihren Komfort, ihren Geschmack oder ihr Budget relevant finden.
Definition:
Mixed Reality Capture ist ein Begriff und ein Ansatz, der vor allem von Oculus entwickelt und gefördert wurde und der einer Person außerhalb eines VR-Erlebnisses einen Eindruck davon vermittelt, wie es innerhalb dieses Inhalts aussieht. Oculus beschreibt diesen Ansatz so: "Entwickler können Videos und andere Inhalte erstellen, die Live-Aufnahmen von Menschen, die Rift und Touch in der realen Welt benutzen, mit Spielmaterial aus VR-Apps kombinieren."
Die Gelegenheit:
Mixed-Reality-Erfassung bietet ein fesselndes Mittel, um VR-Erlebnisse zu teilen, zu vermarkten, zu fördern und zu kommunizieren.
Definition:
Die Latenzzeit zwischen Bewegung und Photonen ist die Zeitspanne zwischen der tatsächlichen Bewegung in der realen Welt und dem Zeitpunkt, zu dem das Auge ein Photon vom HMD-Bildschirm empfängt, das diese Veränderung widerspiegelt. Aufgrund der extrem hohen Geschwindigkeiten und der eher kurzen Entfernungen ist sie sehr schwer zu messen, stellt aber die gesamte Effektivität eines VR-Systems unter dem Gesichtspunkt der Latenz dar. Laien beschreiben dieses Phänomen manchmal mit dem Begriff "Lag".
Die Gelegenheit:
Eine hohe Bildrate sorgt für flüssige Bewegungen und verhindert das Auftreten von Stroboskopen, die zur Reisekrankheit beitragen können. Die eigentliche Ursache für das Unbehagen bei VR ist jedoch die Diskrepanz zwischen der realen Bewegung und der visuellen Wahrnehmung. In einem solchen Fall kann der Computer die Bilder zwar sehr schnell rendern, aber wenn die Verfolgungsdaten verzögert werden oder die Bilder kodiert und gestreamt werden müssen, führt die hohe Latenzzeit zwischen Bewegung und Photonen trotzdem zu Motion Sickness. Dieses Problem macht es derzeit schwierig bis unmöglich, VR mit Cloud-basiertem Rendering zu realisieren.
Definition:
Motion Tracking ist die Fähigkeit, die Bewegungen eines VR-Benutzers und die Bewegungen von realen Objekten zu verfolgen und aufzuzeichnen, sie als Eingaben zu lesen und diese Bewegungen in der virtuellen Realität in Echtzeit zu replizieren.
Die Gelegenheit:
Die Bewegungsverfolgung ermöglicht es VR-Benutzern, sich in einer Umgebung zu bewegen, wie sie es in der Realität tun würden. Wenn Sie sich vorbeugen, um etwas in der virtuellen Welt zu betrachten, kommen Sie näher an das Objekt heran, genau wie im richtigen Leben. Die Bewegungsverfolgung ist eine der wichtigsten Komponenten, die erforderlich ist, um Ihren Sinnen vorzugaukeln, dass Sie sich in der virtuellen Umgebung befinden. Außerdem bietet es den Autoren von Inhalten nun die Möglichkeit, VR-Inhalte in der VR zu erstellen und zu gestalten.
Definition:
Damit die virtuelle Realität dem Nutzer stereoskopisches 3D bieten kann, muss für jedes Auge ein anderes Bild bereitgestellt werden. Dies bedeutet, dass zwei unterschiedliche 3D-Bilder auf ein HMD übertragen werden. Das Multi-Pass-Stereo-Rendering ist jedoch weniger leistungsfähig als das Single-Pass-Stereo-Rendering und schränkt daher die visuelle Wiedergabetreue oder die Komplexität der möglichen Szenen ein.
Die Gelegenheit:
Diejenigen, die Tools für die Erstellung von Spielen und anderen VR-Inhalten entwickeln, müssen viel Aufwand betreiben, um Multi-Pass-Stereo-Rendering zu ermöglichen und zu unterstützen. Wenn Sie selbst ein VR-Konsument sind, könnte das Multipass-Rendering der Grund dafür sein, dass Sie eine so leistungsstarke Plattform benötigen, um ein Virtual-Reality-HMD zu verwenden.
Definition:
VR-Erlebnisse, die alle nicht spielerischen Inhalte umfassen, wie z. B. Bildungsanwendungen, medizinische Trainingssoftware, Architekturvisualisierung, militärische Simulationen, Werbeinstallationen, Fahrten in Vergnügungsparks, Einzelhandelsanwendungen und kreative Werkzeuge. Diese Art von Erlebnissen macht bereits einen großen Teil der heute produzierten VR-Inhalte aus.
Die Gelegenheit:
Eine gute Nachricht. Je mehr Branchen und Sektoren sich mit VR beschäftigen, desto mehr kann das Ökosystem der virtuellen Realität wachsen. Das bedeutet mehr Tools, mehr Investitionen und mehr Talente - fantastisch, egal ob Sie ein VR-Entwickler oder ein Konsument sind.
Definition:
Die OpenGL-Transformation erfolgt in der OpenGL-Pipeline und bietet dabei denselben grundlegenden Prozess wie allgemeine Grafik-Transformations-Pipelines, insbesondere für die sprach- und plattformübergreifende Grafik-API. Es werden OpenGL-Matrizen verwendet, ähnlich wie bei den maßgeschneiderten Matrizen der Direct3D Transformation Pipeline.
Die Gelegenheit:
Für diejenigen, die mit der OpenGL-API vertraut sind, ist eine maßgeschneiderte Grafik-Transformations-Pipeline verfügbar.
Definition:
Ein SDK und eine API, die von Valve speziell zur Unterstützung der Entwicklung für SteamVR/HTC Vive und ähnliche VR-Headsets entwickelt wurden. Im Gegensatz dazu ist die OpenXR-Initiative eine breitere Arbeitsgruppe, die allgemeine Standards zur Unterstützung der Erstellung und Verbreitung von VR- und AR-Inhalten, Tools und Hardware festlegen will.
Die Gelegenheit:
Ein Mittel zur Erstellung von Inhalten für eine der produktivsten und beliebtesten VR-Plattformen der aktuellen Generation.
Definition:
Eine Initiative zur Schaffung eines offenen Standards für VR- und AR-Apps und -Geräte und zur Beseitigung der Fragmentierung der Branche. Siehe auch: OpenVR SDK/API.
Die Gelegenheit:
Ein robusteres, zuverlässigeres und fortschrittlicheres Ökosystem, auf dem VR- und AR-Inhalte erstellt werden können.
Definition:
Wie bei vielen Begriffen im aufstrebenden VR- und AR-Bereich decken auch 2D- und 3D-Panorama-Videos ein relativ breites Spektrum ab. Sie definieren im Allgemeinen Videoinhalte, die den Nutzer vollständig umschließen, sei es als 360-Grad-Band auf Augenhöhe oder als ganze Kugel. Im weitesten Sinne umfasst der Begriff sowohl 360°-Videos, die in einem VR-HMD-Kontext betrachtet werden, als auch bildschirmgestützte Installationen an Orten wie Vergnügungsparks. Die meisten Live-Action-360-Videos sind heute 2D-Bilder, doch mit der richtigen Ausrüstung - und dem richtigen Budget - sind echte stereoskopische 3D-Panoramavideos durchaus möglich.
Die Gelegenheit:
Neben den Möglichkeiten, die 360°-Videos bieten, stellen Panoramavideos auch für andere Inhaltsersteller - Spieleentwickler und Vermarkter - eine Möglichkeit dar, die Komplexität von Szenen zu reduzieren, indem sie Videos als vorgerenderten Hintergrund anstelle von realer Geometrie einbeziehen. 3D-Engines wie Unity bieten integrierte Unterstützung für diese Art von Videoinhalten.
Definition:
Die Positionsverfolgung ist die Fähigkeit, die Bewegungen des Benutzers und von Objekten in Echtzeit zu erfassen. Das bedeutet, dass die Nutzer sich in der Realität bewegen können und diese Bewegungen als Interaktionen in einer bestimmten virtuellen Welt wiedergegeben werden.
Der Begriff "Positional Tracking" berührt ähnliche Bereiche wie "Head Tracking" und "Gaze Tracking", umfasst aber auch HMDs, Controller, Requisiten und andere Objekte der realen Welt, einschließlich solcher, die in echten Mixed-Reality-Erlebnissen vorkommen.
Die Gelegenheit:
Auf einer grundlegenden Ebene beeinflusst die relative Feinheit der Positionsbestimmung die Fähigkeit eines VR-Erlebnisses, überzeugend und immersiv zu sein. Darüber hinaus erweitert das wachsende Potenzial der Arten von Objekten und Eingaben, die positionell verfolgt werden können, das Spektrum der Erfahrungen, die die virtuelle Realität bieten kann, erheblich.
Definition:
Post FX for VR bietet die Möglichkeit, verschiedene visuelle Effekte anzuwenden, nachdem eine Szene erstellt wurde. Ein Post-Processing-Stack kombiniert einen kompletten Satz von Bildeffekten in einer einzigen Post-Processing-Pipeline, so dass filmische Effekte direkt und effizient in der richtigen Reihenfolge in einem einzigen Durchgang angewendet werden können.
Die Gelegenheit:
Ansätze wie der Post-Processing-Stack bieten eine unkomplizierte, relativ schnelle Möglichkeit, VR-Welten mit zusätzlichen Nuancen und Details auszustatten und sie damit letztlich überzeugender zu machen.
Definition:
Das Gefühl, irgendwo zu sein, sei es in der Realität oder in einer virtuellen Realität. In Wirklichkeit kann eine gegenwärtige Person besonders aufmerksam und sozial interaktiv sein. In der VR bezieht sich der Begriff auf die Erfahrung, dass man glaubt, sich in der virtuellen Welt zu befinden. Man könnte wohl auch sagen, dass wir in einem Buch oder Film "anwesend" sind, wenn wir vergessen, dass es die reale Welt gibt und dass die Fiktion Realität ist. VR bietet ein Gefühl der Präsenz, wie es kaum ein anderes Medium oder eine andere Form bietet.
Die Gelegenheit:
Die Präsenz ist wohl die grundlegende Stärke von VR und ein wichtiges Instrument, um die Immersion des Spielers zu erreichen. Die Erzeugung von Präsenz ergibt sich aus den vielen Techniken, die zur Herstellung hochwertiger VR eingesetzt werden, aber die vielleicht wichtigste Regel lautet: "Alles, was den Nutzer daran erinnert, dass er sich in einem VR-Erlebnis befindet - und nicht in der Realität -, wirkt der Präsenz entgegen." Das bedeutet, dass ein unpassendes Menü oder ein Moment der Verzögerung die Präsenz im Handumdrehen untergraben kann.
Definition:
Eine Rendering-Schleife bildet die logische Architektur, die vorgibt, wie ein gerenderter Frame zusammengesetzt ist. Eine typische Rendering-Schleife kann z. B. folgende Struktur und Reihenfolge haben:
Culling > Schatten > Opak > Transparent > Nachbearbeitung > Präsentieren
Während eine Rendering-Schleife die Schritte umfasst, die die 3D-Engine durchläuft, um eine Szene zu komponieren, ist die Grafik-Transformationspipeline die Reihe von Schritten, die ein Objekt aus seinem eigenen Raum in den physischen Bildschirmraum transformieren.
Die Gelegenheit:
Für VR müssen für jedes Auge zwei unterschiedliche Bilder gerendert werden. Die Ausführung von zwei Rendering-Schleifen ist zwar praktikabel, beansprucht aber die CPU- und GPU-Ressourcen extrem. Die Entwicklung von Techniken wie dem Single-Pass-Stereo-Rendering von Unity macht Rendering-Schleifen, die VR-Inhalte unterstützen, jedoch wesentlich effizienter und setzt GPU und CPU für andere Aufgaben frei.
Definition:
Ein Rendering-Ziel ist ein Speicherpuffer, in den gezeichnet werden kann, damit die Objekte im Headset des Endbenutzers erscheinen. Ein Array von Rendering-Zielen ermöglicht die gleichzeitige Ausgabe an mehrere Rendering-Ziele.
Die Gelegenheit:
Render-Targets sind eine etablierte Konvention der Spiele- und verwandten Entwicklung und bieten eine nützliche Möglichkeit, Objekte außerhalb des Bildschirms zu rendern.
Definition:
Rendertexturen sind einzigartige Texturtypen, die zur Laufzeit erstellt und aktualisiert werden. Sie können eine neue Rendertextur erstellen, bevor Sie eine Ihrer Kameras zum Rendern in diese Textur bestimmen.
Die Gelegenheit:
Render-Texturen können in einem Material innerhalb einer Spiel-Engine verwendet werden und bieten so die Vorteile der Laufzeit.
Definition:
Szenendiagramme sind spezielle Datenstrukturen, die die zum Rendern einer Szene erforderlichen Informationen organisieren. Der Szenegraph wird vom Renderer konsumiert und verstanden. Der Szenengraph kann sich entweder auf die gesamte Szene oder auf den für die Ansicht sichtbaren Teil beziehen. In letzterem Zusammenhang wird der Begriff "geculled scene graph" verwendet.
Die Gelegenheit:
Gut geordnete VR-Welten sind effizient und zuverlässig und stellen durch effiziente Positionierung und Skalierung von Objekten in einer Szene nur minimale Anforderungen an die Rechenleistung eines Systems.
Definition:
Die Bildschirmauflösung bezieht sich auf die Anzahl der Pixel, die auf dem Bildschirm angezeigt werden. Ähnlich wie bei einem Computermonitor oder Fernseher gilt: Je mehr Pixel vorhanden sind, desto klarer und realistischer ist die Bildqualität. Im Falle der Bildschirmauflösung eines VR-Headsets ist jedoch eine höhere Auflösung erforderlich, da das Bild nur wenige Zentimeter von den Augen entfernt ist, damit die Nutzer die Lücken zwischen den einzelnen Pixeln nicht wahrnehmen. Bei VR-Headsets wird der Bildschirm außerdem in zwei Hälften geteilt, um für jedes Auge ein genaues Bild anzuzeigen.
Die Gelegenheit:
Wenn Sie als Entwickler oder Verbraucher nach einem VR-Headset der Mittel- oder Oberklasse suchen, achten Sie auf eine Bildschirmauflösung von mindestens 2160 x 1200 (oder 1080 x 1200 pro Auge). Bei niedrigeren Werten können Sie den so genannten "Fliegengittertür-Effekt" bemerken, der sich anfühlt, als würden Sie durch eine Fliegengittertür schauen, d. h. Sie können die kleinen schwarzen Punkte oder Linien auf dem Bildschirm sehen.
Definition:
Single-Pass-Stereo-Rendering ist eine Funktion, die beide Augenbilder gleichzeitig in eine gepackte Rendertextur rendert, was bedeutet, dass die gesamte Szene nur einmal gerendert wird und die CPU-Verarbeitungszeit erheblich reduziert wird.
Bei aktiviertem Single-Pass-Stereo-Rendering oder Stereo-Instanzierung teilt eine 3D-Engine wie Unity das Culling - also die Entscheidung, ob ein 3D-Objekt gerendert werden soll oder nicht, je nachdem, ob es für die Kamera sichtbar ist - und die Schattendaten zwischen den Augen. Für jedes sichtbare Objekt muss also nur einmal gerendert werden, was zu beträchtlichen Geschwindigkeitssteigerungen führen kann, ohne dass die Leistung darunter leidet.
Der Unterschied zwischen Single-Pass-Rendering und Stereo-Instanzierung besteht darin, dass letztere noch leistungsfähiger ist, aber Hardware-Unterstützung erfordert. Ohne diese Funktion rendert die 3D-Engine die Szene zweimal: zuerst für das Bild des linken Auges und dann noch einmal für das Bild des rechten Auges.
Ab Unity 2017.3 verfügen alle unterstützten Plattformen über Single Pass Stereo und, sofern verfügbar, Single Pass Instancing.
Die Gelegenheit:
Da die Anforderungen, die herkömmliche Rendering-Loops an die CPU-Verarbeitungszeit stellen, reduziert werden, haben Sie mehr Zeit, um an anderer Stelle in Ihrem VR-Projekt zu arbeiten.
Definition:
Ein System mit sechs Freiheitsgraden verfolgt die Position und Drehung eines Objekts in drei Dimensionen. Die drei Positionsachsen in Kombination mit den drei Rotationsachsen ergeben insgesamt sechs "Grad", die frei gesteuert werden können.
Die Gelegenheit:
Es besteht ein signifikanter Unterschied zwischen den Möglichkeiten der 3DOF-Rotationsverfolgung und der vollständigen 6DOF-Verfolgung. Der ursprüngliche Wii-Controller hat zum Beispiel nur die Rotation erfasst, was die Spieleentwickler dazu zwang, Steuerungsmetaphern für Dinge wie das Werfen eines Balls oder das Schwingen eines Tennisschlägers zu verwenden. Die Controller von HTC Vive und Oculus Touch hingegen lassen sich präzise im Raum steuern und geben den Nutzern ein Gefühl dafür, wo sich ihre Hände befinden, was zu mehr Nuancen und Präsenz führt.
Definition:
Simultane Lokalisierung und Kartierung ist der Prozess, bei dem eine Karte von einem Agenten - vielleicht einem Fahrzeug -, der sich durch den Raum bewegt, erstellt und aktualisiert wird, während gleichzeitig ein solcher Agent im Raum verfolgt wird. Derzeit gibt es viele verschiedene Ansätze, und die Technologie wird immer wichtiger für selbstfahrende Autos, Haushaltsroboter und AR-Anwendungen.
Die Gelegenheit:
Die Etablierung von SLAM-Technologien und den dazugehörigen Algorithmen hat ein enormes Potenzial, die Entwicklung von AR zu beeinflussen und bietet ein Mittel für zahlreiche praktische Anwendungen sowie für Spiele und andere Formen der Unterhaltung.
Definition:
Spatial Audio bietet eine Methode zur Erstellung und Platzierung von Audio-Assets, so dass - aus der Perspektive des VR-Nutzers - ein bestimmter Klang von einer bestimmten Position in einer 3D-Szene ausgeht. Das ist wie Surround-Sound in einem Heimkino oder im Kino und sehr wichtig für die Präsenz und Immersion in VR.
Die Gelegenheit:
Der Ton ist eine der wichtigsten Komponenten für die Schaffung eines immersiven VR-Erlebnisses. Der Raumklang ermöglicht es Ihnen, alle Geräusche um Sie herum zu hören und den Klang zu verfolgen, wenn Sie Ihren Kopf bewegen, genau wie im richtigen Leben. Das bedeutet, dass ein VR-Entwickler nicht nur mehr Realismus bieten kann, sondern auch Sound zur Steuerung oder Führung des Spielers sowie für innovativere Mechanismen nutzen kann, die für VR typisch sind.
Definition:
Die Wiedergabe der Wirkungen des binokularen Sehens durch fotografische oder andere grafische Mittel. Mit anderen Worten: Die Erfahrung, die Menschen machen, wenn sie die reale Welt mit zwei Augen sehen, wird nachempfunden. Bei stereoskopischen Ansätzen werden in der Regel zwei verschiedene Bilder derselben Szene angezeigt: eines für das linke und eines für das rechte Auge des Benutzers. Dies würde zum Beispiel durch die linke und rechte Linse eines HMD geschehen. Das Gehirn des Nutzers kombiniert dann die beiden Bilder, um eine 3D-Szene mit Tiefe und Perspektive zu erstellen, genau wie das, was unser linkes und rechtes Auge in der Realität sehen - und wie diese Bilder zusammengesetzt werden -.
Die Gelegenheit:
VR-Inhalte sind immersiver, bieten mehr Präsenz und unterscheiden sich von denen auf herkömmlichen Flachbildschirmen.
Definition:
Eine Weiterentwicklung des Single-Pass-Renderings und der neueste von mehreren Rendering-Optimierungsansätzen, die Entwicklern dabei helfen sollen, ein flüssigeres Erlebnis in VR zu gewährleisten, wo die Framerate-Budgets im Vergleich zu den Beschränkungen der traditionellen Spielentwicklung unvorstellbar klein sind.
Die Gelegenheit:
Eine Möglichkeit für Entwickler, CPU-Verarbeitungszeiten einzusparen und Energie freizusetzen, die sie anderweitig nutzen können.
Definition:
Eine integrierte, plattformübergreifende Treiberkomponente, die die Einrichtung der Verfolgung von Spielerbewegungen und Peripheriegeräten vereinfacht, indem sie die Position und Drehung eines realen Geräts oder Objekts mit seiner Pose - der Position des entsprechenden virtuellen Objekts - abgleicht.
Die Gelegenheit:
Die Bereitstellung eines überzeugenden, realistischen und reaktionsschnellen Trackings ist für die Ersteller viel weniger anspruchsvoll. Für die Spieler werden Immersion und Präsenz deutlich unterstützt.
Definition:
Tracking ist entscheidend für ein vollständig immersives VR-Erlebnis. Im Wesentlichen teilt diese Methode dem Computer durch die Verfolgung der Position des VR-HMD - oder eines Peripheriegeräts wie eines speziellen Controllers - mit, wohin der Benutzer schaut und was er tut, so dass er die virtuelle Welt um ihn herum genau und angemessen zeichnen kann. Je präziser das Tracking ist, desto komfortabler ist das VR-Erlebnis. Siehe auch: Motion Tracking, Positional Tracking und Gaze Tracking.
Die Gelegenheit:
Innovative Wege, ein Spiel zu steuern, und - einmal mehr - erhöhte Immersion und Präsenz. Die Qualitätsverfolgung bietet auch eine Gegenmaßnahme zur Cyber-Krankheit.
Definition:
Der Begriff "Unheimliches Tal" wurde ursprünglich von dem Robotikprofessor Masahiro Mori in den 1970er Jahren geprägt und beschreibt ein Phänomen, das die Beziehung zwischen Menschen und physischen oder digitalen Objekten, die eine menschliche oder menschenähnliche Form annehmen, bestimmt. Je mehr ein Objekt wie ein Mensch aussieht, desto mehr wird ein echter Mensch eine positive, engagierte Reaktion auf dieses Objekt empfinden. An dem Punkt jedoch, an dem ein Objekt fast wie ein fotorealistischer Mensch aussieht - aber nicht ganz -, nimmt die positive Reaktion des Betrachters ab. Dieser Abfall - wie er in einem einfachen Liniendiagramm zu sehen ist - ist das namensgebende "Tal" und kann sich bemerkbar machen, wenn wir einen Roboter oder eine computeranimierte Figur gruselig oder beunruhigend finden, weil sie fast echt aussieht, aber nicht überzeugend ist.
In vielen Fällen kann eine physische oder digitale menschliche Gestalt, die nicht ganz so realistisch ist, fesselnder sein als eine, die fast völlig überzeugend ist.
Die Gelegenheit:
Der "Unheimliche Tal"-Effekt in VR und anderen MX-Formen kann die Immersion und die Präsenz stark beeinträchtigen. Infolgedessen entscheiden sich die Autoren von Inhalten oft dafür, menschliche Charaktere mit geringer Wiedergabetreue zu entwerfen, um negative Reaktionen bei den Zuschauern zu vermeiden.
Definition:
Ein Netzwerk von Kanälen im Innenohr, die als Bewegungsmelder fungieren und es uns ermöglichen, unser Gleichgewicht zu halten und unsere Bewegungen zu verstehen. Konflikte zwischen dem visuellen und dem vestibulären System - oder "vestibuläre Fehlanpassung" - sind die Ursache für die Cyber- und Reisekrankheit.
Die Gelegenheit:
Das vestibuläre System ist so grundlegend dafür, wie wir VR-, AR- und MR-Inhalte interpretieren - und warum sie erfolgreich sein oder scheitern können -, dass ein grundlegendes Verständnis Ihnen helfen wird, bessere Inhalte zu erstellen, die den Nutzern ein überzeugenderes, immersives Erlebnis bieten.
Definition:
Da sich die virtuelle Realität weiterentwickelt hat und in verschiedenen Sektoren unterschiedliche Verwendungszwecke gefunden hat, haben sich verschiedene Definitionen herausgebildet, von denen sich die meisten erheblich überschneiden. Es bestehen Unstimmigkeiten. Die folgenden Elemente sind jedoch nahezu universell, wenn es darum geht, was VR bietet:
- Computergenerierte Stereobilder, die den Benutzer vollständig umgeben und die reale Umgebung um ihn herum vollständig ersetzen. Viele glauben, dass diese Definition 360°-Videos zu Recht von echter VR ausschließt.
- Die Inhalte werden aus der Perspektive des Betrachters konsumiert und erlebt.
- Die Interaktion mit dem Benutzer in der virtuellen Umgebung ist in Echtzeit möglich, sei es durch detaillierte Interaktionen oder durch die Möglichkeit, sich einfach in der Umgebung umzusehen. Hier bedeutet das Echtzeit-Element, dass die Antwort innerhalb eines bestimmten Zeitintervalls erfolgt, das für die Anwendung oder den Bereich spezifisch ist.
Die Gelegenheit:
Ein hohes Maß an VR-Immersion wird erreicht, indem die beiden wichtigsten Sinne, Sehen und Hören, durch die Verwendung eines VR-Headsets und von Kopfhörern angesprochen werden. Das VR-Headset umschließt die virtuelle Welt oder Erfahrung fast bis an den Rand Ihres natürlichen Sichtfeldes. Wenn Sie sich umschauen, erleben Sie die Umgebung genauso wie im wirklichen Leben. Kopfhörer verstärken das Erlebnis, indem sie die Geräusche um Sie herum abschirmen und gleichzeitig die
Sie können die Geräusche innerhalb der VR-Erfahrung hören. Wenn Sie Ihren Kopf bewegen, bewegen sich die Geräusche in der VR-Umgebung um Sie herum, so wie sie es im echten Leben tun würden.
3D-Engines wie Unity haben es möglich gemacht, hochentwickelte VR-Inhalte zu erstellen und zu liefern. Mit solchen Lösungen wird die Erstellung von Virtual-Reality-Erlebnissen wesentlich einfacher, so dass sich diese Darstellungsmethode immer mehr durchsetzt. Das bedeutet, dass es eine Gelegenheit gibt, die Erstellung von VR-Inhalten zu meistern, um ein wachsendes Publikum zu erreichen.
Definition:
Die Programmierung für VR und AR ist vergleichbar mit der Programmierung für andere Anzeigemethoden und traditionellere Arten von Inhalten. C++ und C# sind besonders beliebte Programmiersprachen für AR und VR, was zeigt, wie sich etablierte Entwicklungstools an das Aufkommen von VR und AR angepasst haben, ohne die etablierten Konventionen der Programmierung zu vernachlässigen.
Die Gelegenheit:
Ihre vorhandenen Programmierkenntnisse - oder die Ihres Teams - sind bereit für die VR- und AR-Entwicklung.
Definition:
Selbst die schönsten 3D-360-Videos haben ihre Grenzen, wenn es darum geht, dass sich der Nutzer frei und selbstbestimmt durch die Welt bewegen kann. Bislang beschränken sich die meisten 360°-Videos darauf, dass der Nutzer die ursprüngliche Position der Kamera zum Zeitpunkt der Aufnahme des Videos einnimmt und verfolgt. Volumetrisches Video versucht, diese Einschränkung zu überwinden, indem es die volumetrischen Daten eines gefilmten Raums für jedes Bild erfasst. Diese Daten können dann verwendet werden, um die Szene so darzustellen, als ob es sich um eine gerenderte grafische Szene handelt, d. h. der Benutzer kann durch das Video laufen.
Die Gelegenheit:
Stereoskopische Live-Action-360-Videoinhalte, in denen Sie sich bewegen können. Das könnte einige der wilderen Vorhersagen darüber, was VR in Zukunft sein könnte, wahr werden lassen.
Definition:
VR-Installationen sind orts- oder standortspezifische Virtual-Reality-Erlebnisse. Es kann sich dabei um einmalige Kreationen handeln - wie bei Kunstinstallationen - oder um Vervielfältigungen an verschiedenen Orten, wie z. B. in Vergnügungsparks. Sie werden häufig als Marketinginstrumente eingesetzt. Zum Beispiel die Werbung für einen Film auf einer ComicCon oder für eine Marke auf einem Musikfestival. Oft werden sie in einem solchen Kontext durch aufwändige physische Sets und physikalische Effekte wie Wind oder bewegte Böden unterstützt. Einzelhändler können auch temporäre oder permanente VR-Installationen vor Ort einrichten, die es den Verbrauchern ermöglichen, zum Beispiel ein neues Auto zu testen, das nicht im Ausstellungsraum vorrätig ist.
Die Gelegenheit:
VR-Installationen bieten den Verbrauchern die Möglichkeit, High-End-Virtual-Reality auszuprobieren, ohne in Geräte investieren zu müssen. Sie bieten auch eine große Chance für Kreative, da immer mehr Marken VR als Marketinginstrument nutzen wollen.
Definition:
Ein offener Standard, der es ermöglicht, AR in einem Browser zu erleben, anstatt Apps herunterladen zu müssen. Vergleichbar mit WebVR.
Die Gelegenheit:
WebAR dürfte vor allem für den mobilen Bereich wichtig sein, wo Websites AR-Erlebnisse über Smartphone-Browser bieten können und wo Entwickler einfache Web-Apps mit AR-Inhalten bereitstellen können. Dies dürfte sowohl die Erstellung von AR-Inhalten als auch den Zugang zu ihnen für die Nutzer erheblich demokratisieren. Es könnte auch eine bequeme Testmöglichkeit für AR-Entwickler bieten.
Definition:
Ein offener Standard, der die Möglichkeit bietet, VR über einen Browser zu erleben, anstatt zunächst spezielle Anwendungen herunterladen zu müssen.
Die Gelegenheit:
VR braucht nur ein Headset und einen Webbrowser, anstatt die Kosten für High-End-Computerhardware zu verursachen. Das Ergebnis ist eine leichter zugängliche VR und ein größeres potenzielles Publikum für die Ersteller von Inhalten. Wie bei WebAR könnte diese Methode in einigen Fällen für Entwickler eine bequeme Testmöglichkeit darstellen.
Definition:
Technologievermittelte Erfahrungen, die virtuelle und reale Umgebungen und Realitäten miteinander verbinden. Hier kann das "X" als Platzhalter für V(R), A(R) oder M(R) gesehen werden, es steht aber auch für eine unbestimmte oder variable Qualität/Menge. XR umfasst die Hardware, Software, Methoden und Erfahrungen, die virtuelle Realität, gemischte Realität, erweiterte Realität, kinematische Realität und andere zur Realität werden lassen. Die meisten Definitionen von XR umfassen Plattformen und Inhalte, bei denen der Nutzer digitale Objekte in die Realität übernehmen kann oder umgekehrt physische Objekte in einer digitalen Szene sieht.
Zu den XR-Erfahrungen gehören solche, bei denen die Nutzer neue Formen der Realität schaffen, indem sie digitale Objekte in die physische Welt bringen, und solche, bei denen die Objekte der physischen Welt in die digitale Welt gebracht werden.
XR wird im Allgemeinen als Oberbegriff verwendet und dient häufig als beiläufige Abkürzung, um Technologien wie VR, AR und MR zusammenzufassen.
Die Gelegenheit:
Das Erforschen und Verstehen von XR im weiteren Sinne - anstatt sich auf bestimmte Umgebungen zu konzentrieren - sollte es den Schöpfern ermöglichen, flexibel zu bleiben und sich mit den entstehenden Arten von XR weiterzuentwickeln, anstatt sich auf eine einzige Form festzulegen.