Que recherchez-vous ?
Hero background image
Qu'est-ce que la RA, la RV, la RM, la XR, la 360 ?
La réalité virtuelle (RV) a commencé à faire son chemin dans les conversations courantes il y a quelques années et l'industrie progresse rapidement. Se tenir au courant des termes et des acronymes peut être décourageant. Pour vous aider à rester dans le coup, nous avons créé un glossaire de termes couvrant tout le spectre de la technologie immersive, de la RA à la RX.
Vidéo 360

Définition :

Souvent appelées "vidéos sphériques" ou "vidéos immersives", les vidéos à 360° sont des enregistrements vidéo dans lesquels une vue dans plusieurs directions est enregistrée simultanément. Elles sont généralement filmées à l'aide d'une caméra omnidirectionnelle spécialisée ou d'un ensemble de caméras séparées et connectées, montées en réseau sphérique. Les vidéos à 360° peuvent être en prise de vue réelle (cinématographie ou vidéographie sans animation), animées (capturées à partir d'une scène en 3D) ou un mélange de graphiques générés par ordinateur et de prise de vue réelle. Après avoir été préparées pour l'affichage via une technologie telle qu'un moteur de jeu 3D, les vidéos à 360° sont ensuite visionnées par l'utilisateur dans un casque.

Les vidéos 360 peuvent être interactives ou non. Les vidéos à 360° non interactives sont des expériences où le spectateur ne peut pas influencer l'expérience de visionnage, sauf peut-être en mettant la vidéo en pause ou en bougeant la tête pour prendre différents "angles de caméra". Les vidéos interactives à 360° sont des expériences où le spectateur peut interagir avec l'interface utilisateur ou d'autres éléments interactifs à l'aide de son regard ou d'un contrôleur.

L'opportunité :

La vidéo 360 est une opportunité pour les créateurs de travailler avec une variété d'industries qui souhaitent maintenant fournir du contenu sous forme de marketing ou de divertissement. Bien qu'une partie de la production de vidéos à 360° soit différente de la création à partir de ressources numériques, le processus de post-production est relativement comparable à la création de jeux et d'autres contenus numériques MR.

Ambisonic Audio

Définition :

Cette technique de son surround couvre les sources sonores situées à la fois en dessous et au-dessus de l'utilisateur. Officiellement, il s'agit d'une technique de "sphère complète", qui permet également d'utiliser des sources audio placées sur le plan horizontal. L'ambisonie est stockée dans un format multicanal. Au lieu d'associer chaque canal à un haut-parleur spécifique, l'ambisonie représente le champ sonore d'une manière plus générale. Le champ sonore peut ensuite être tourné en fonction de l'orientation de l'auditeur - par exemple, la rotation de la tête de l'utilisateur en XR. Le champ sonore peut également être décodé dans un format correspondant à la configuration du haut-parleur. L'ambisonie est couramment associée aux vidéos à 360 degrés et utilisée comme skybox audio pour les sons ambiants lointains.

L'opportunité :

Bien que l'audio ambisonique soit potentiellement plus coûteux - à la fois en termes de mémoire et de budget de production - il permet à votre expérience de RV d'offrir un paysage sonore totalement immersif. La conception et la production audio sont plus importantes pour la RV que pour les méthodes d'affichage précédentes, et le "son 3D" rendra la plupart des expériences de réalité virtuelle d'autant plus convaincantes et immersives.

Anti-Aliasing

Définition :

Au niveau le plus fondamental, l'anticrénelage est une technique qui lisse les lignes irrégulières sur les bords des objets tridimensionnels. Cette approche lisse la couleur d'un bord avec la couleur des pixels qui l'entourent immédiatement. L'anticrénelage est particulièrement important dans la réalité virtuelle, où les bords irréguliers peuvent nuire à l'immersion et à la présence.

L'opportunité :

L'anticrénelage est un moyen simple et bien établi d'améliorer la fidélité visuelle des contenus virtuels en 3D. Les moteurs 3D tels que Unity permettent aux développeurs qui utilisent le forward rendering d'activer l'anticrénelage multisample dans de nombreux cas. Bien que le rendu différé ne permette pas l'anticrénelage multi-échantillon, dans ce cas, les développeurs peuvent choisir d'appliquer l'anticrénelage en tant que post-effet.

API (Interface de programmation d'applications)

Définition :

Une API, ou "interface de programmation d'application", est un concept courant dans le développement de logiciels, que l'on retrouve dans le développement de contenu de RV et de RA. Il s'agit essentiellement d'une interface standardisée qui permet aux logiciels de se connecter à un système d'exploitation et d'utiliser ses ressources. Les API ne sont pas visibles pour l'utilisateur d'une expérience de RV ou de RA.

L'opportunité :

L'accès aux ressources et au potentiel d'un système d'exploitation et leur exploitation sont plus simples, plus normalisés et plus efficaces.

ARCore

Définition :

Une solution uniquement logicielle pour la RA qui fonctionne sur tous les téléphones Android fonctionnant sous Android Nougat ou toute version ultérieure de l'OS. Il permettra des expériences de RA mobile à l'échelle, de manière similaire à ce que propose ARKit pour iOS. En fait, le SDK lui-même a des fonctionnalités similaires à celles d'ARKit. Google ne sait pas si ARCore sera intégré à Android ou s'il s'agira d'un produit autonome. Elle a confirmé qu'elle ne ferait pas partie de la marque Daydream.

L'opportunité :

Si ARCore connaît le succès que Google espère, alors il offre à un vaste public une plateforme de RA accessible. Cela signifie, bien sûr, que votre contenu sur la radioactivité a une audience massive.

ARCore SDK pour Unity

Définition :

Le kit de développement logiciel qui permet de développer des applications AR ciblant les appareils Android et ARCore.

L'opportunité :

Un moyen pratique et efficace de créer du contenu pour les appareils ARCore.

ARKit

Définition :

Un cadre qui vous permet de créer et de lancer des expériences de réalité augmentée pour l'iPhone et l'iPad.

L'opportunité :

Un moyen accessible de faire vivre des expériences de réalité augmentée à l'important public d'utilisateurs d'iOS

Plugin ARKit

Définition :

Le logiciel Unity qui permet de développer des apps ciblant ARKit pour iOS.

L'opportunité :

Un développement AR plus accessible et de haute qualité pour les plateformes iOS.

Estimation de la lumière AR

Définition :

Informations - basées sur des approximations calculées - concernant l'éclairage de la scène associé aux images vidéo capturées lors d'une session de RA.

L'opportunité :

L'estimation de la lumière en AR vous permet de vous assurer que les objets virtuels rendus au-dessus du flux de la caméra ont l'air d'appartenir à l'environnement, ce qui est essentiel pour l'immersion.

Spatialiseur audio

Définition :

Fonctionnalité qui modifie la façon dont le son est transmis d'une source audio à l'espace environnant. Un plugin de ce type prend la source et régule les gains des contributions des oreilles gauche et droite ; dans un moteur 3D comme Unity, le calcul est basé sur la distance et l'angle entre l'AudioListener et l'AudioSource.

L'opportunité :

Un son plus convaincant et immersif qui complète la nature 3D de votre contenu VR.

Audio Spatializer SDK

Définition :

Une extension du SDK de plugin audio natif qui permet de modifier la façon dont le son est transmis d'une source audio à l'espace environnant. Le panoramique intégré des sources audio est une forme simple d'audio spatial - il prend la source et régule les gains des contributions des oreilles gauche et droite en fonction de la distance et de l'angle entre l'AudioListener et l'AudioSource. Cela permet au joueur de disposer de repères directionnels simples sur le plan horizontal.

L'opportunité :

Ce SDK offre un moyen simple, peu exigeant et efficace de mettre en œuvre le potentiel offert par les fonctions de spatialisation audio.

Réalité augmentée (RA)

Définition :

La réalité augmentée consiste à superposer des contenus créés numériquement au monde réel. La réalité augmentée - ou "RA" - permet à l'utilisateur d'interagir à la fois avec le monde réel et avec des éléments numériques ou des augmentations. La réalité augmentée peut être proposée aux utilisateurs via des casques comme le HoloLens de Microsoft, ou via la caméra vidéo d'un smartphone.

Dans les applications pratiques et expérimentales, la réalité augmentée peut également remplacer ou diminuer la perception de la réalité par l'utilisateur. Cette altération de la perception peut inclure la simulation d'un état oculaire à des fins de formation médicale, ou l'obstruction progressive de la réalité pour introduire un univers de jeu. Il convient de noter qu'il y a un moment où la réalité augmentée et la réalité virtuelle risquent de se confondre ou de se chevaucher. Voir aussi Réalité mixte dans ce glossaire.

L'opportunité :

Alors que l'intérêt des consommateurs, l'activité d'investissement et le battage médiatique de l'industrie se sont d'abord concentrés sur la réalité virtuelle, la réalité augmentée prend de plus en plus d'importance grâce à l'absence de matériel dédié. L'accessibilité qu'offre la RA en ne limitant pas complètement la vision de l'utilisateur, ainsi que le vaste potentiel d'utilisation sans fil, ont accru sa popularité. Comme le montre le succès phénoménal de Pokémon GO - ainsi que l'adoption rapide de la réalité augmentée en tant qu'outil sur les lieux de travail industriels et créatifs - la réalité augmentée a la possibilité de connaîtreun succès considérable auprès d'un large public. Pour en savoir plus sur les possibilités offertes par la réalité augmentée, consultez la première et la deuxième partie du blog d'Unity consacré à l'avenir de la réalité augmentée.

La virtualité augmentée

Définition simple :

Sur le continuum de la réalité mixte, la virtualité augmentée se situe quelque part entre la réalité augmentée et la réalité virtuelle. La définition précise fait référence à l'introduction d'objets du monde réel dans des mondes virtuels où il est possible d'interagir avec eux. Elle pourrait être considérée comme un renversement - ou un miroir - de ce qu'est la réalité augmentée.

La virtualité augmentée est peut-être mieux comprise comme un exemple spécifique ou une mise en œuvre de la RM. L'utilisation de "virtualité augmentée" est imprécise, il faut donc considérer "virtualité augmentée" comme une terminologie flexible.

L'opportunité :

La virtualité augmentée est un moyen de rendre les espaces de RV plus intuitifs du point de vue de l'interface utilisateur, ainsi que plus familiers et "conviviaux" pour les nouveaux utilisateurs.

Cinématique RV

Définition :

La RV offre un potentiel énorme aux cinéastes et au public, en proposant une nouvelle façon de raconter des histoires, en exploitant tout le potentiel immersif de la RV et en tirant parti de la puissance de la présence. Il existe de nombreux exemples distincts de RV cinématique, des récits linéaires auxquels le spectateur peut participer aux histoires à ramifications et aux "films" avec des éléments de type jeu. Bien qu'il existe différentes interprétations du terme, la RV cinématographique couvre essentiellement les nombreuses approches dans lesquelles le contenu de la réalité virtuelle s'approprie ou utilise des méthodes cinématographiques pour offrir des expériences narratives.

L'opportunité :

Si vous êtes cinéaste, une révolution de la créativité est en cours. Si vous êtes spectateur, le cinéma est sur le point de devenir beaucoup plus varié et passionnant. Et si vous produisez du contenu pour la RV, comme des jeux, Cinematic VR pourrait vous permettre de déployer vos ailes et de créer pour de nouvelles industries.

CPU (unité de traitement informatique)

Définition :

L'unité de traitement informatique peut être considérée comme le composant central d'un ordinateur moderne. Le rôle de l'unité centrale est d'exécuter les instructions fournies par un programme informatique. Aujourd'hui, les CPU sont généralement des microprocesseurs, c'est-à-dire qu'ils sont constitués d'un seul circuit intégré.

L'opportunité :

En utilisant le profileur d'un moteur de jeu, les développeurs peuvent voir quelle est la demande de rendu imposée à l'unité centrale. En comprenant ces données, vous pouvez optimiser les zones de contenu VR afin de garantir une expérience meilleure et plus confortable pour les utilisateurs.

Le mal du cyberespace (ou mal de la réalité virtuelle ou mal de la simulation)

Définition :

Le mal des transports - souvent ressenti lors d'un long voyage en voiture ou d'un vol en avion - survient lorsqu'une personne se déplace dans l'espace physique alors que son cerveau comprend qu'elle est immobile, car son corps ne contribue pas à l'élan. Le mal du cyberespace, en revanche, survient lorsque le sujet est immobile, mais qu'il a une impression de mouvement induite par l'exposition à des images visuelles changeantes. (Arns et Cerney, 2005)

La sensation de cyber-maladie est toutefois comparable à celle du mal des transports.

Il n'existe pas de facteur unique à l'origine du mal des transports. Par exemple, des éléments tels que le décalage, le taux de rafraîchissement et le taux de mise à jour de l'affichage visuel peuvent tous causer des maladies. Les autres facteurs susceptibles d'influencer la maladie sont le contraste, la résolution, la couleur, le champ de vision, la région d'observation, l'observation binoculaire, le contenu de la scène, le scintillement et le mouvement de la caméra.

Au début de la génération actuelle de RV, le mal de simulation a été considéré comme plus courant, et il continue d'être associé négativement à la RV pour de nombreux utilisateurs. Il est désormais généralement admis que la responsabilité de la prévention de la cybermaladie incombe davantage au contenu qu'au matériel. Nombreux sont ceux qui pensent que les utilisateurs peuvent développer une tolérance à la cybermaladie à force d'utilisation. Il reste encore beaucoup à apprendre sur cette expérience, en particulier sur ses effets sur les jeunes utilisateurs.

L'opportunité :

Cela représente un défi important, tant pour les projets individuels que pour la réputation et le potentiel globaux de la RV. Les contenus de RV qui provoquent un cyber-malaise peuvent sérieusement limiter l'adoption et nuire à la réputation de la RV. Faites vos recherches. Et de nombreux tests. Heureusement, les meilleures pratiques en matière de cybermaladie sont désormais partagées par l'industrie.

Pipeline de transformation Direct3D

Définition :

Le pipeline de transformation Direct3D est un pipeline de transformation graphique spécifique à l'API graphique Direct3D pour Microsoft Windows. Cette implémentation d'un pipeline de transformation graphique utilise trois matrices Direct 3D : transformation du monde, transformation de la vue et transformation de la projection. Les matrices Direct3D fonctionnent comme celles des pipelines de transformation graphique de haut niveau.

L'opportunité :

Un pipeline de transformation graphique est disponible, adapté à ceux qui travaillent avec Direct3D.

Suivi des yeux

Définition :

Les caméras situées à l'intérieur de l'affichage monté sur la tête peuvent suivre la direction dans laquelle l'utilisateur regarde. Le suivi des yeux peut être utilisé comme un nouvel axe d'entrée, par exemple pour cibler les avions ennemis dans un jeu de combat aérien. Par exemple, le FOVE est un HMD lancé sur Kickstarter qui promet des capacités de suivi oculaire et un SDK de rendu fové.

Bien que l'oculométrie ne soit pas une condition préalable à l'obtention d'un rendu fovéal, elle peut apporter une amélioration significative en permettant de déplacer la région à haut niveau de détail en fonction de la direction de l'œil de l'utilisateur. En outre, les nouveaux utilisateurs ont du mal à surmonter leur tendance naturelle à regarder autour d'eux avec leurs yeux. Le problème est que les optiques des HMD ont tendance à fonctionner au mieux lorsque l'utilisateur regarde directement à travers elles vers le centre de l'écran, idéalement en bougeant la tête pour regarder autour. Le suivi oculaire est la première étape vers la possibilité pour les utilisateurs d'utiliser leurs yeux pour se déplacer naturellement dans la RV.

L'opportunité :

Un moyen de fournir un contenu VR plus confortable, plus intuitif et plus immersif.

Suivi des visages

Définition :

Technologie de vision par ordinateur conçue pour obtenir des données à partir d'images fixes et de séquences vidéo en suivant certaines caractéristiques faciales en temps réel.

L'opportunité :

Des personnages et des interactions plus convaincants et plus naturels dans le jeu, favorisant la narration, l'immersion et la présence, tout en offrant la possibilité de créer de nouveaux mécanismes d'interaction innovants.

Champ d'application

Définition :

Lié au champ de vision, le champ d'observation couvre l'espace qu'un utilisateur peut voir à partir d'une position donnée, y compris lorsqu'il bouge les yeux, la tête et le cou.

L'opportunité :

Tout comme le champ de vision, le champ de référence est le point de vue du spectateur sur lequel la cinématographie ou le cadrage d'une expérience de RV, de RA ou de RM donnée est établi.

Champ de vision (FOV)

Définition :

Le champ de vision est tout ce que vous pouvez voir en regardant droit devant vous. Le FOV est l'étendue de votre vision naturelle, à la fois dans la réalité et dans le contenu MX. Le champ de vision moyen d'un être humain est d'environ 200 degrés.

Lorsque vous effectuez des recherches sur les casques de réalité virtuelle - également connus sous le nom d'écrans montés sur la tête ou HMD - vous constatez qu'il existe une spécification relative au champ de vision. La plupart des casques VR actuels ont un champ de vision minimal de 90 à 110 degrés, ce qui constitue la base d'une bonne expérience VR. Plus le champ de vision est grand, plus l'utilisateur verra l'environnement qui s'étendra jusqu'au bord de sa vision et, par conséquent, plus il vivra une expérience immersive. C'est un peu comme la différence entre un écran de cinéma IMAX et un écran de cinéma normal. L'écran IMAX est beaucoup plus grand et occupe donc une plus grande partie de votre champ de vision, ce qui vous permet de voir davantage, créant ainsi une expérience plus immersive.

Il est difficile d'obtenir un large champ de vision car les limites de l'optique des objectifs - aberration chromatique et distorsion en barillet - deviennent plus sévères, et l'optique elle-même doit être plus grande ou plus complexe. Comme une photographie prise avec un objectif fisheye, les images sur l'écran du HMD sont déformées pour tenir compte de l'optique du HMD. En outre, l'élargissement du champ de vision "étire" la résolution disponible de l'écran, ce qui signifie que la résolution doit augmenter pour conserver la même densité de pixels à des angles de vue plus élevés - l'impact potentiel peut être réduit par l'utilisation de l'ombrage VR multi-réseaux et du rendu fové.

Il convient également de noter que certains casques, tels que le HoloLens, présentent également un champ de vision limité. On pourrait considérer que le champ de vision d'une expérience de réalité augmentée sur smartphone correspond à la taille de l'écran disponible, bien qu'il ne s'agisse pas d'une définition technique stricte.

Dans de rares cas, le champ de vision est appelé champ de vision. Voir aussi Champ d'application.

L'opportunité :

Si vous êtes un fabricant de HMD, les questions relatives au champ de vision (FOV) posent de nombreux problèmes. Pour les créateurs de contenu, les limites du FOV du matériel définissent effectivement la "toile" sur laquelle votre vision VR ou AR peut être peinte, c'est donc un facteur important, en particulier pour les versions multiformats.

Rendu fovéal

Définition :

En s'inspirant de la biologie humaine, les moteurs de rendu avancés de la RV pourront consacrer plus de temps au centre du champ visuel, en rendant moins de détails dans les zones périphériques du champ de vision.

L'ordinateur peut rendre l'ensemble de la scène plus rapidement s'il s'autorise à effectuer le rendu à une résolution inférieure ou avec des objets simplifiés. Comme les yeux humains perçoivent plus de détails au centre du champ visuel, il y a beaucoup de détails dans chaque image que nous ne voyons même pas. En effectuant un rendu de faible qualité sur le bord de l'image, l'ordinateur peut soit consacrer plus de temps au rendu des détails au centre, soit effectuer le rendu d'une seule image plus rapidement.

L'opportunité :

Le rendu par fovéation permet de réaliser d'énormes économies de temps. De la même manière, le GPU dispose de plus de mémoire pour jouer, et vous avez plus de liberté pour réaliser vos idées dans la RV sans être limité par les exigences du rendu de scènes entières à la résolution la plus élevée.

Images par seconde (FPS)

Définition :

"Le nombre d'images par seconde - ou FPS en abrégé - désigne le nombre de fois qu'une image à l'écran est rafraîchie chaque seconde.

L'opportunité :

Plus le nombre d'images par seconde est élevé, plus les mouvements semblent fluides et plus l'expérience de RV est confortable. C'est extrêmement important pour la réalité virtuelle, car les mouvements lents ou saccadés provoquent souvent un mal de simulation. Pour que les utilisateurs se sentent à l'aise lorsqu'ils font l'expérience de la RV, ils doivent s'assurer qu'ils achètent un casque de RV capable d'atteindre au moins 90 FPS pour un ordinateur de bureau ou une console de RV, et au moins 60 FPS pour un téléphone portable. La plupart des casques VR disponibles sur le marché aujourd'hui atteignent 60 à 120 images par seconde. Il s'agit également du taux de rafraîchissement de l'écran, parfois exprimé en hertz (90 Hz, par exemple).

Abattage de Frustum

Définition :

Les propriétés des plans de coupe proches et éloignés sont celles qui déterminent où commence et où finit le point de vue d'une caméra dans une scène. Les plans sont disposés perpendiculairement à la direction de la caméra et sont mesurés à partir de sa position. Le plan proche est l'endroit le plus proche qui sera rendu, et le plan éloigné est le plus éloigné. Les plans du clip proche et du clip lointain, ainsi que les plans définis par le champ de vision de la caméra, décrivent ce que l'on appelle communément le tronc de la caméra. L'élimination du Frustum consiste à ne pas afficher les objets qui se trouvent entièrement en dehors de cette zone. Dans les moteurs 3D tels que Unity, le frustum culling se produit indépendamment du fait que vous utilisiez ou non l'occlusion culling dans votre jeu.

L'opportunité :

Le Frustum culling peut améliorer de manière significative les performances de la réalité virtuelle, en aidant à offrir des expériences plus confortables, plus impressionnantes et plus immersives.

Suivi du regard (AKA Eye Tracking)

Définition :

Suivre la direction et le mouvement des yeux d'un utilisateur, et parfois utiliser les données suivies comme données d'entrée. Voir aussi Suivi des têtes.

L'opportunité :

Une méthode permettant un contrôle et un apport très subtils et nuancés de la part de l'utilisateur, et un moyen d'obtenir des données sur la manière dont les utilisateurs interagissent avec une expérience donnée. Le suivi du regard constitue également un outil puissant pour l'accessibilité, en offrant un moyen d'interaction aux utilisateurs dont les mouvements physiques sont limités, par exemple.

Pipeline de transformation graphique

Définition :

Le pipeline de transformation graphique est une méthode établie pour prendre des objets créés dans des logiciels graphiques, des moteurs de jeu et autres, et les placer dans l'espace prévu dans une scène, et finalement dans le champ de vision de l'utilisateur. Les pipelines de transformation graphique fonctionnent effectivement de la même manière avec la RV et la RA qu'avec les méthodes d'affichage 3D plus traditionnelles.

L'opportunité :

Un moyen fiable et éprouvé de s'assurer que vos objets apparaissent dans une scène VR ou AR comme prévu. Les pipelines de transformation graphique et les matrices associées sont souvent fournis par un moteur de jeu 3D comme Unity, ce qui signifie que vous n'aurez pas à vous préoccuper outre mesure du trajet de vos objets 3D jusqu'à leur domicile VR ou AR sur l'écran d'un utilisateur.

GPU (unité de traitement graphique)

Définition :

Une unité de traitement graphique est un composant - c'est-à-dire un circuit électronique - spécifiquement utilisé pour accélérer la production d'images dans une mémoire tampon. Dans ce cas, ces images sont créées pour être affichées sur un écran ou un support similaire. On les trouve dans les ordinateurs personnels, les stations de travail, les consoles de jeux, les appareils mobiles et bien d'autres endroits. La réalité virtuelle sollicite considérablement le GPU, notamment parce que la méthode d'affichage doit créer des images distinctes pour l'œil gauche et l'œil droit de l'utilisateur.

L'opportunité :

Les consommateurs doivent investir une somme importante pour obtenir une puissance de GPU suffisante pour prendre en charge les solutions VR haut de gamme telles que l'Oculus Rift et le HTC Vive. Bien que le coût puisse limiter considérablement le public potentiel de la RV, de nombreuses méthodes sont apparues pour optimiser les performances des GPU dans la réalité virtuelle, dont beaucoup sont définies dans ce glossaire.

Haptique (AKA Touch Feedback)

Définition :

L'haptique simule et stimule le sens du toucher en appliquant diverses forces - le plus souvent des vibrations - à l'utilisateur, par l'intermédiaire de dispositifs d'entrée ou de vêtements haptiques spécifiques. L'haptique est utilisée pour donner de la tangibilité à un objet ou à un mouvement à l'écran. Les manettes de jeu vibrantes constituent l'exemple classique, mais il y a aussi les vibrations transmises par l'écran d'un smartphone et les approches modernes telles que les réseaux de haut-parleurs à ultrasons qui projettent des textures dans l'air que l'utilisateur de la RV peut ressentir lorsqu'il interagit avec le contenu.

L'opportunité :

Une autre façon d'améliorer l'immersion dans la RV, et en particulier la présence dans la RV.

Casque (AKA Head-Mounted Display ou HMD)

Définition :

Un casque de réalité virtuelle ou augmentée prend généralement la forme d'un dispositif ressemblant à une lunette que l'utilisateur porte sur la tête, couvrant ou enfermant les yeux. Les casques de réalité virtuelle contiennent généralement un écran et des lentilles qui permettent à l'utilisateur de voir dans le monde virtuel, ou un écran translucide sur lequel un contenu de réalité augmentée peut être affiché. De nombreux casques distincts servent plusieurs plateformes matérielles différentes, et tout ce qui va d'un téléphone à une console peut produire du contenu VR. Cela signifie qu'il est préférable de travailler avec des outils créatifs et des technologies qui prennent en charge le plus grand nombre possible de plates-formes de RV.

L'opportunité :

Le casque VR est à la base de la réalité virtuelle moderne et a établi le modèle suivi aujourd'hui par l'AR et d'autres HMD. La technologie a beaucoup évolué au cours des 50 à 60 dernières années, et les casques de RV encombrants, inconfortables et extrêmement coûteux du début des années 70 ont évolué pour devenir des lunettes de ski ou de snowboard de la même taille. Certains casques VR utilisent même votre téléphone comme écran, comme le Samsung Gear VR ou le Google cardboard. Lorsque vous recherchez des casques de RV, vérifiez si les écrans sont intégrés ou si vous devez utiliser votre téléphone portable. Si vous recherchez la meilleure expérience immersive, les casques VR haut de gamme tels que l'Oculus Rift ou le HTC Vive méritent d'être pris en considération. Mais n'oubliez pas que les casques VR haut de gamme nécessitent un ordinateur haut de gamme pour les faire fonctionner. Si vous recherchez une expérience VR mobile de grande qualité, le Samsung Gear VR et le Google Daydream offrent des expériences plus nuancées que les visionneuses VR en carton ; ces dernières sont extrêmement abordables et constituent un excellent moyen de démontrer la simplicité fondamentale de la RV.

Suivi de la tête

Définition :

Grâce à diverses approches, le head tracking surveille et suit la position et les mouvements de la tête et du cou d'un utilisateur donné, offrant ainsi un moyen potentiel de saisie et d'interaction.

Par exemple, si le cou et la tête de l'utilisateur sont légèrement inclinés d'un côté, avec le suivi de la tête activé, ce qu'il voit dans le HMD peut se déplacer vers le même angle. L'utilisateur peut également étirer son cou pour regarder autour de lui ou au-dessus de quelque chose. Ce même utilisateur peut faire un mouvement tel que "regarder le sol" pour activer une action de jeu spécifique.

L'opportunité :

Le suivi de la tête est au cœur de ce qu'offre la RV : la possibilité de construire des mondes que l'utilisateur peut explorer de la même manière qu'il interagit avec le monde réel.

Immersion

Définition :

L'immersion consiste à plonger complètement l'utilisateur dans un monde virtuel. Alors que la présence dans la RV fait spécifiquement référence à la sensation ou à la croyance subconsciente que vous existez dans une expérience donnée, l'immersion tend à être un terme plus général pour se sentir entièrement englobé et oublier la réalité. Dans la RV, l'immersion prend un sens pratique, car les yeux, les oreilles et parfois même les mains et le corps des utilisateurs sont sollicités, bloquant ainsi tout indice ou apport sensoriel de la réalité.

L'opportunité :

L'immersion est le principal pouvoir de la RV - et de certaines créations de RA - que vous envisagiez d'immerger vos utilisateurs dans une expérience convaincante ou de vous immerger vous-même dans une expérience convaincante. L'immersion est l'attrait de la RV et permet d'impliquer le public.

Expériences immersives

Définition :

La notion d'expérience immersive est bien antérieure à la génération actuelle de RV et de RA, bien qu'elle comprenne les expériences qui utilisent ces formes - et potentiellement tous les contenus MR et XR. Le terme a même été utilisé pour couvrir des approches spécifiques de la conception de sites web et de la conception de manèges de parcs d'attractions. En ce qui concerne la RV, cependant, le terme fait référence à des expériences totalement interactives, peu interactives et non ludiques. Ceux-ci peuvent être proposés à la fois sous la forme d'une véritable RV et d'une vidéo à 360°. Il s'agit d'un terme très large - un peu comme XR - mais qui, dans ce contexte, n'inclut pas les expériences numériques et cinématographiques traditionnelles consommées via un écran plat traditionnel.

L'opportunité :

L'occasion de faire participer les utilisateurs, d'explorer de nouvelles formes de création, d'éduquer, de divertir, de former, de servir, de promouvoir, et bien plus encore.

Divertissement immersif/hyperréalité

Définition :

Divertissement, contenu promotionnel et expérientiel qui combine la physicalité du monde réel avec la RV ou la RA, ainsi que d'autres formes telles que l'écriture narrative et la réalisation de films.

L'opportunité :

L'occasion de créer du contenu pour les parcs d'attractions, les salles d'arcade, les centres commerciaux et bien d'autres lieux physiques, qui peuvent fournir un large point d'accès par lequel le public peut faire l'expérience de la RV.

Unité de mesure inertielle (IMU, AKA Odometry)

Définition :

Une unité de mesure inertielle (IMU) est un dispositif électronique capable de détecter des mouvements par différents moyens et technologies. Les UMI se composent d'un accéléromètre, d'un gyroscope ou d'un compas pour mesurer la rotation absolue de l'appareil avec une très faible latence et sont utilisées, par exemple, pour le suivi de la tête. Combiné à des systèmes de suivi optique, un IMU peut être utilisé pour déterminer la direction de la vue d'un HMD.

Comme pour tout système de suivi, la latence et la précision sont des facteurs clés pour une UMI. En général, ces caractéristiques ne sont pas annoncées et ne varient pas sensiblement d'un appareil à l'autre. Il convient de noter que le Samsung GearVR comprend un IMU dédié, contrairement à Google Cardboard et Daydream, qui s'appuient tous deux sur ce que l'IMU intégré d'un téléphone apporte aux casques.

L'opportunité :

La même technologie sous-jacente qui permet de faire passer votre téléphone du mode paysage au mode portrait ou de contrôler l'inclinaison des jeux mobiles est utilisée dans les HMD de RV pour faire correspondre la caméra virtuelle à la direction de la tête de l'utilisateur. Cela ouvre la voie à toutes sortes de formes innovantes de contrôle et d'immersion dans les expériences de RV.

Entrée

Définition :

Une entrée permet d'interagir avec une machine, un ordinateur ou un autre appareil. Dans le cas de la RV et de la RA en particulier, le terme "entrée" fait référence à la méthode de contrôle que vous utiliserez pour la réalité virtuelle et les formes apparentées. Il s'agit le plus souvent d'un suivi des mouvements avec des contrôleurs, mais de nombreuses expériences de RV, de RA et autres permettent à l'utilisateur d'interagir à l'aide d'une souris et d'un clavier ou d'une manette de jeu.

Au fur et à mesure que la RV se développe, de nombreuses formes alternatives d'entrée deviennent disponibles et abordables, depuis les gants qui suivent les mouvements de chaque doigt jusqu'aux combinaisons qui permettent de suivre l'ensemble du corps dans une expérience de RV.

L'opportunité :

Pour les concepteurs, les entrées offrent de nombreuses possibilités de proposer des mécanismes de jeu inhabituels. Pour les utilisateurs, ils sont un moyen d'interagir avec les mondes numériques et de se sentir véritablement immergés. Les approches d'entrée qui ne complètent pas le contenu de RV qu'elles servent peuvent contribuer à déconnecter l'utilisateur de l'expérience, en sapant le plus grand potentiel de la forme - celui de l'immersion. Les créateurs de 3D doivent donc réfléchir longuement à la prise de décision en matière d'intrants.

Suivi intérieur-extérieur/extérieur

Définition :

Les deux principales plateformes de réalité virtuelle de bureau - le HTC Vive et l'Oculus Rift - s'appuient toutes deux sur une caméra ou un "phare" placé à un endroit fixe de la pièce, à l'extérieur du HMD lui-même. C'est ce qui définit le suivi extérieur-intérieur. Parallèlement, des dispositifs tels que les casques de réalité mixte Windows Immersive et Microsoft HoloLens utilisent une technique appelée odométrie visuelle pour analyser les images des caméras montées sur le HMD lui-même, qui servent à suivre sa position par rapport à l'environnement qui l'entoure. Cette dernière méthode peut être considérée, par opposition aux configurations de caméras externes, comme offrant un suivi de l'intérieur vers l'extérieur.

L'opportunité :

Bien que les conventions relatives au matériel soient principalement entre les mains des détenteurs de plateformes eux-mêmes, les deux options disponibles augmentent le nombre de contextes dans lesquels la RV et la RA sont pertinentes, et donc le paysage potentiel de publics et d'expériences.

Distance interpupillaire (IPD)

Définition :

Distance mesurée entre les pupilles des yeux d'un utilisateur donné. L'IPD peut être considéré comme une sorte de "mesure de base" qui sert de fondement à l'échelle de la RV. Certains HMD permettent d'ajuster physiquement le déplacement horizontal des lentilles pour mieux correspondre à l'IPD de l'utilisateur.

L'opportunité :

Bien que les conventions relatives au matériel soient principalement entre les mains des détenteurs de plateformes eux-mêmes, les deux options disponibles augmentent le nombre de contextes dans lesquels la RV et la RA sont pertinentes, et donc le paysage potentiel de publics et d'expériences.

Temps de latence

Définition :

La latence est la vitesse à laquelle le monde virtuel réagit aux mouvements de l'utilisateur. Un monde virtuel avec une latence élevée peut être décrit comme montrant un décalage. En règle générale, moins il y a de latence, plus l'expérience est confortable. En règle générale, la latence doit être inférieure à 20 millisecondes. Plus le nombre de millisecondes est faible, meilleure sera l'expérience.

La latence peut également se référer à la vitesse à laquelle un monde virtuel se met à jour pour l'utilisateur.

L'opportunité :

Une faible latence permet de lutter contre la maladie cybernétique et renforce ainsi l'immersion et la présence. À un niveau encore plus fondamental, il s'agit d'un moyen de se sentir à l'aise dans un monde virtuel.

En ce qui concerne la mise à jour des mondes, le maintien d'une latence minimale rend les mondes plus convaincants et les expériences interactives plus gratifiantes.

La latence est un facteur essentiel de la qualité globale d'une expérience XR.

Technologie des champs lumineux

Définition :

La technologie du champ lumineux regroupe diverses technologies d'imagerie computationnelle et d'affichage, du matériel et des solutions de traitement d'images qui permettent de capturer des images et des vidéos qui peuvent être modifiées après la capture. Le résultat, l'ouverture et la mise au point du contenu vidéo peuvent être ajustés après coup, et potentiellement dans le cadre de l'expérience individuelle d'un utilisateur. Lancées par la société Lytro, les caméras à champ lumineux fonctionnent d'une manière fondamentalement similaire aux appareils photo numériques contemporains. Cependant, ils utilisent un réseau de microlentilles composé de quelque 200 000 minuscules lentilles, qui sont utilisées pour capturer une myriade de perspectives distinctes lorsque la lumière frappe le processeur d'un appareil photo sous plusieurs angles. En revanche, le capteur d'image d'un appareil photo numérique conventionnel capture la lumière telle qu'elle entre d'un seul point de vue, imitant ainsi les principes fondamentaux d'un appareil photo argentique traditionnel.

Une grande partie du travail est également effectuée par des logiciels de traitement et d'étalonnage. Voir aussi Vidéo sur le champ de lumière.

L'opportunité :

La technologie du champ lumineux offre la possibilité de créer des contenus vidéo, VR, AR et MR à 360° beaucoup plus nuancés, réalistes et variables, avec un potentiel fou d'interactions innovantes et la possibilité pour les utilisateurs de se déplacer dans les expériences vidéo sans avoir besoin de rester ancrés au point de vue original de la caméra qui les a capturés.

Vidéo sur le champ de lumière

Définition :

À l'aide d'un dispositif unique combinant une caméra vidéo DSLR traditionnelle et une caméra Lytro Illum - cette dernière étant une caméra à champ lumineux - une équipe d'universitaires de Berkeley et de San Diego a construit un dispositif hybride qui permet la vidéo à champ lumineux au niveau du matériel grand public. En règle générale, les caméras à champ lumineux ont une fréquence d'images maximale de seulement 3 images par seconde, ce qui les rend inadaptées à la vidéo. Cette nouvelle approche apporte tous les avantages des caméras à champ lumineux au travail vidéo, c'est-à-dire la possibilité de refaire la mise au point, de changer de vue, de modifier l'ouverture et plus encore, tout cela après le moment où la vidéo a été capturée.

L'opportunité :

Une technologie émergente qui apporte un vaste potentiel et une grande flexibilité à la vidéo 360 et à d'autres formes de vidéo immersive, en termes de processus de post-production, de conception interactive et de créativité. De manière plus générale, la technologie des champs lumineux permet de simuler des indices réels de mise au point, de perspective et de distance dans les contenus vidéo VR et 360.

Affichage à faible persistance

Définition :

La possibilité de regarder autour de soi au sein d'une expérience est probablement l'un des atouts les plus fondamentaux de la RV. Cependant, de nombreuses technologies de RV ont été compromises par le fait que les mouvements rapides de l'utilisateur pouvaient rendre les images floues, provoquer un inconfort et rompre l'immersion. Un affichage à faible persistance permet de résoudre ce problème.

Dans le cadre de la spécification Daydream de Google, un mode à faible persistance pour les écrans de smartphones constitue une caractéristique distinctive majeure, qui fait passer l'offre de la simple utilisation d'un smartphone avec quelques lentilles à un véritable HMD VR, même s'il est accessible aux plateformes mobiles. Le Samsung Gear VR fait basculer l'affichage dans ce mode spécial lorsqu'il est inséré dans le HMD et peut être activé manuellement à l'aide du mode développeur du Gear VR. Dans ce mode, l'appareil semble scintiller lorsqu'on le regarde de l'extérieur. C'est pourquoi il est essentiel que l'état de faible persistance soit temporaire.

L'opportunité :

Une façon de plus en plus raffinée de donner aux utilisateurs la liberté de se déplacer comme ils le souhaitent et de jouir d'une véritable présence dans les mondes que vous créez.

Réalité mixte (MR)

Définition :

Une expérience de réalité mixte est une expérience qui mélange de manière transparente l'environnement réel de l'utilisateur et le contenu créé numériquement, où les deux environnements peuvent coexister et interagir l'un avec l'autre. On la trouve souvent dans les expériences et les installations de RV et elle peut être considérée comme un continuum sur lequel on trouve à la fois la RV pure et la RA pure. Comparable au divertissement immersif/à l'hyperréalité.

La réalité mixte a été très largement utilisée comme terme de marketing, et de nombreuses définitions alternatives coexistent aujourd'hui, certaines englobant des expériences de réalité augmentée, ou des expériences qui vont et viennent entre la réalité virtuelle et la réalité augmentée. Toutefois, la définition ci-dessus s'impose de plus en plus comme le sens convenu du terme.

L'opportunité :

Bien que la réalité mixte présente de nombreux défis en matière de conception et que des progrès considérables soient nécessaires en ce qui concerne les plateformes qui l'hébergent et la prennent en charge, la RM offre une formidable opportunité de proposer au public une diversité d'expériences et de méthodes d'affichage. Cela devrait permettre à un plus grand nombre de contenus d'atteindre et de servir un plus large éventail de personnes, y compris celles qui ne trouvent pas la RV ou la RA traditionnelle adaptée à leurs capacités, à leur confort, à leurs goûts ou à leur budget.

Capture de réalité mixte (AKA Mixed Cast)

Définition :

Un terme et une approche principalement mis en avant et facilités par Oculus, la capture de la réalité mixte donne à une personne extérieure à une expérience de RV une impression de ce qu'elle est à l'intérieur de ce contenu. L'approche, telle que décrite par Oculus, permet aux développeurs de "créer des vidéos et d'autres contenus qui fusionnent des séquences en direct de personnes utilisant le Rift et le Touch dans le monde réel avec des séquences de jeu provenant d'applications VR".

L'opportunité :

La capture de la réalité mixte offre un moyen captivant de partager, de commercialiser, de promouvoir et de communiquer les expériences de réalité virtuelle.

Latence entre le mouvement et les photons

Définition :

La latence entre le mouvement et le photon est la mesure du temps qui s'écoule entre le moment où un mouvement se produit dans le monde réel et le moment où l'œil reçoit un photon de l'écran du HMD qui reflète ce changement. En raison des vitesses extrêmement élevées et des distances plutôt courtes, elle est très difficile à mesurer, mais elle représente l'efficacité totale d'un système de RV du point de vue de la latence. Les utilisateurs non professionnels décrivent parfois ce phénomène sous les mêmes termes que le "décalage".

L'opportunité :

Une fréquence d'images élevée permet d'obtenir des mouvements fluides et d'éviter l'apparition de stroboscopes, qui peuvent contribuer au mal des transports. Cependant, la cause sous-jacente de l'inconfort lié à la RV est l'écart entre le mouvement réel et la perception visuelle. Dans ce cas, l'ordinateur peut rendre les images très rapidement, mais si les données de suivi sont retardées, ou si les images doivent être encodées et diffusées, la latence élevée entre le mouvement et le photon provoquera toujours le mal des transports. Ce problème rend actuellement difficile, voire impossible, l'utilisation de la RV avec un rendu basé sur l'informatique dématérialisée.

Suivi des mouvements

Définition :

Le suivi de mouvement est la capacité de suivre et d'enregistrer les mouvements d'un utilisateur de RV et les mouvements d'objets du monde réel, en les lisant comme des entrées et en reproduisant ces mouvements dans la réalité virtuelle en temps réel.

L'opportunité :

Le suivi des mouvements permet aux utilisateurs de RV de se déplacer dans un environnement comme ils le feraient dans la réalité. Lorsque vous vous penchez pour regarder quelque chose dans un monde virtuel, vous vous rapprochez de cet objet, comme vous le feriez dans la vie réelle. Le suivi des mouvements est l'un des éléments les plus importants nécessaires pour faire croire à vos sens que vous participez à l'environnement virtuel. De même, il offre désormais aux créateurs de contenu un moyen de créer et de façonner le contenu de la RV à partir de la RV.

Rendu stéréo multipasse

Définition :

Pour que la réalité virtuelle offre aux utilisateurs une 3D stéréoscopique, une image différente doit être fournie à chaque œil. Il s'agit de restituer deux images 3D distinctes à un HMD. Le rendu stéréo multipasse est toutefois moins performant que le rendu stéréo monopasse et limite donc la fidélité visuelle ou la complexité des scènes possibles.

L'opportunité :

Les concepteurs d'outils de création de jeux et d'autres contenus VR doivent déployer beaucoup d'efforts pour permettre et prendre en charge le rendu stéréo multipasse. Si vous êtes vous-même un consommateur de RV, le rendu multipasse pourrait être la raison pour laquelle vous avez besoin d'une plateforme aussi puissante pour utiliser un HMD de réalité virtuelle.

Réalité virtuelle/réalité augmentée hors jeux

Définition :

Les expériences de RV qui incluent tous les contenus non liés au jeu, tels que les applications éducatives, les logiciels de formation médicale, la visualisation architecturale, la simulation militaire, les installations promotionnelles, les manèges de parcs d'attractions, les utilisations dans le commerce de détail et les outils créatifs. Ces types d'expériences commencent à représenter une part importante du contenu VR produit aujourd'hui.

L'opportunité :

Bonne nouvelle. Plus il y a d'industries et de secteurs qui adoptent la RV, plus l'écosystème de la réalité virtuelle peut se développer. Cela signifie plus d'outils, plus d'investissements et plus de talents, ce qui est fantastique, que l'on soit créateur ou consommateur de RV.

Pipeline de transformation OpenGL

Définition :

La transformation OpenGL s'effectue dans le pipeline OpenGL et, ce faisant, fournit le même processus fondamental que les pipelines de transformation graphique généraux, en particulier pour l'API graphique inter-langues et inter-plateformes. Les matrices OpenGL sont utilisées, d'une manière similaire à celle observée avec les matrices adaptées du Direct3D Transformation Pipeline.

L'opportunité :

Pour ceux qui connaissent l'API OpenGL, un pipeline de transformation graphique sur mesure est disponible.

SDK/API OpenVR

Définition :

Un SDK et une API créés par Valve spécifiquement pour soutenir le développement pour le SteamVR/HTC Vive et les casques VR similaires. En revanche, l'initiative OpenXR est un groupe de travail plus large qui cherche à établir des normes générales pour soutenir la création et la distribution de contenu, d'outils et de matériel de RV et de RA.

L'opportunité :

Un moyen de créer du contenu pour l'une des plateformes de RV les plus prolifiques et les plus populaires de la génération actuelle.

OpenXR

Définition :

Une initiative visant à créer une norme ouverte pour les applications et les appareils de RV et de RA, et à éliminer la fragmentation de l'industrie. Voir aussi SDK/API OpenVR.

L'opportunité :

Un écosystème plus robuste, plus fiable et plus avancé sur lequel créer du contenu VR et AR.

Vidéo panoramique 2D/3D

Définition :

Comme de nombreux termes dans l'espace émergent de la RV et de la RA, les vidéos panoramiques 2D et 3D couvrent un spectre relativement large. Ils définissent généralement un contenu vidéo qui entoure entièrement l'utilisateur, qu'il s'agisse d'une bande à 360 degrés à hauteur des yeux ou d'une sphère entière. Au sens large, ce terme englobe à la fois les vidéos à 360° visionnées dans le cadre d'un HMD VR, mais aussi les installations sur écran dans des lieux tels que les parcs d'attractions. La plupart des contenus vidéo 360 en direct sont aujourd'hui des images 2D, mais avec l'équipement et le budget adéquats, il est tout à fait possible de réaliser des vidéos panoramiques 3D véritablement stéréoscopiques.

L'opportunité :

Au-delà des possibilités offertes par la vidéo 360, la vidéo panoramique permet à d'autres créateurs de contenu - développeurs de jeux et spécialistes du marketing - de réduire la complexité de la scène en incluant la vidéo comme arrière-plan pré-rendu à la place de la géométrie réelle. Les moteurs 3D comme Unity offrent un support intégré pour ce type de contenu vidéo.

Suivi des positions

Définition :

Le suivi positionnel est la capacité d'enregistrer les mouvements de l'utilisateur et des objets en temps réel. Cela signifie que les utilisateurs peuvent se déplacer dans la réalité et que ces mouvements sont reproduits sous forme d'interactions dans un monde virtuel donné.

Bien que le terme de suivi positionnel touche des domaines similaires à ceux définis par le head tracking et le gaze tracking, il couvre les HMD, les contrôleurs, les accessoires et d'autres objets du monde réel, y compris ceux vus dans les expériences de réalité mixte.

L'opportunité :

À la base, la finesse relative du suivi de la position a un impact sur la capacité d'une expérience de RV à être convaincante et immersive. En outre, le potentiel croissant des types d'objets et d'entrées qui peuvent être suivis en position élargit considérablement le spectre des expériences que la réalité virtuelle peut offrir.

Post FX pour VR (ou pile de post-traitement)

Définition :

Post FX for VR permet d'appliquer divers effets visuels après la création d'une scène. Une pile de post-traitement combine un ensemble complet d'effets d'image en un seul pipeline de post-traitement, ce qui permet d'appliquer des effets cinématographiques directement et efficacement, et dans le bon ordre, en un seul passage.

L'opportunité :

Des approches telles que celle de la pile de post-traitement constituent un moyen simple et relativement rapide de doter les mondes de la RV d'un degré supplémentaire de nuances et de détails, ce qui les rend finalement plus convaincants.

Présence (ou sens de la présence)

Définition :

Le sentiment d'être quelque part, que ce soit dans la réalité ou dans une réalité virtuelle. En réalité, une personne présente peut être particulièrement consciente et socialement interactive. Dans la RV, le terme s'applique à l'expérience de croire que l'on occupe le monde virtuel. On pourrait également considérer que nous sommes "présents" dans un livre ou un film lorsque nous oublions que le monde réel existe et que la fiction est la réalité. La RV offre un sentiment de présence inégalé par presque tous les autres médias ou formes.

L'opportunité :

La présence est sans doute la force fondatrice de la RV et un outil essentiel pour parvenir à l'immersion du joueur. Le renforcement de la présence provient des nombreuses techniques utilisées pour réaliser une RV de qualité, mais la règle la plus importante est peut-être que "tout ce qui rappelle à l'utilisateur qu'il se trouve dans une expérience de RV - plutôt que dans la réalité - va contrecarrer la présence". Cela signifie qu'un menu incongru ou un moment de décalage peut saper la présence en un instant.

Render Loop (AKA Render Pipeline)

Définition :

Une boucle de rendu fournit l'architecture logique qui dicte la composition d'une image rendue. Une boucle de rendu typique peut avoir la structure et l'ordre suivants, par exemple :

Culling > Shadows > Opaque > Transparent > Post Processing > Present

Alors qu'une boucle de rendu est l'ensemble des étapes par lesquelles le moteur 3D passe pour composer une scène, le pipeline de transformation graphique est l'ensemble des étapes permettant de transformer un objet de son propre espace à l'espace physique de l'écran.

L'opportunité :

Pour la RV, deux images distinctes doivent être rendues pour chaque œil. Bien que l'exécution de deux boucles de rendu soit possible, elle est extrêmement gourmande en ressources CPU et GPU. Cependant, le développement de techniques telles que le Single-Pass Stereo Rendering d'Unity rend les boucles de rendu qui prennent en charge le contenu VR beaucoup plus efficaces, libérant le GPU et le CPU pour d'autres tâches.

Render Target (y compris Render Target Array)

Définition :

Une cible de rendu est une mémoire tampon qui sert effectivement d'endroit où dessiner, permettant aux objets d'apparaître dans le casque de l'utilisateur final. Un tableau de cibles de rendu permet d'effectuer des sorties vers plusieurs cibles de rendu simultanément.

L'opportunité :

Les cibles de rendu sont une convention bien établie dans le développement de jeux et d'autres activités connexes et offrent une possibilité utile de rendre des objets hors écran.

Rendu de la texture

Définition :

Les textures de rendu sont des types de textures uniques qui sont créées et mises à jour au moment de l'exécution. Vous pouvez créer une nouvelle texture de rendu avant de désigner l'une de vos caméras pour effectuer le rendu dans cette texture.

L'opportunité :

Les textures de rendu peuvent être utilisées dans un matériau au sein d'un moteur de jeu, offrant ainsi les avantages de l'exécution.

Graphique de la scène

Définition :

Les graphes de scène sont des structures de données spécialisées qui organisent les informations nécessaires au rendu d'une scène. Le graphe de scène est consommé et compris par le moteur de rendu. Le graphe de scène peut se référer soit à la scène dans son intégralité, soit à la partie visible par la vue. C'est dans ce dernier contexte que l'on parle de "graphe de la scène".

L'opportunité :

Les univers de RV bien ordonnés sont efficaces et fiables tout en imposant des exigences minimales en matière de calcul à un système grâce à un positionnement et à une mise à l'échelle efficaces des objets dans une scène.

Résolution de l'écran

Définition :

La résolution de l'écran fait référence au nombre de pixels affichés sur l'écran. Comme sur un écran d'ordinateur ou de télévision, plus il y a de pixels, plus la qualité de l'image est claire et réaliste. Cependant, dans le cas de la résolution de l'écran d'un casque de RV, l'image n'étant qu'à quelques centimètres de vos yeux, une résolution d'écran plus élevée est nécessaire pour que les utilisateurs ne perçoivent pas les écarts entre les pixels individuels. En outre, dans le cas des casques VR, l'écran est divisé en deux pour montrer une image précise à chaque œil.

L'opportunité :

En tant que développeur ou consommateur, lorsque vous cherchez un casque VR de milieu ou de haut de gamme, recherchez une résolution d'écran d'au moins 2160 par 1200 (ou 1080 par 1200 par œil). Plus bas, vous risquez de constater ce que l'on appelle "l'effet porte-écran", qui donne l'impression de regarder à travers une porte-écran ; en d'autres termes, vous pouvez voir les petits points noirs ou les lignes de l'écran.

Rendu stéréo à passage unique

Définition :

Le rendu stéréo en un seul passage est une fonction qui rend les deux images de l'œil en même temps dans une seule texture de rendu, ce qui signifie que la scène entière n'est rendue qu'une seule fois et que le temps de traitement de l'unité centrale est considérablement réduit.

Lorsque le rendu stéréo en un seul passage ou l'instanciation stéréo sont activés, un moteur 3D comme Unity partage les données d'abattage (si un objet 3D doit être rendu ou non en fonction de sa visibilité par la caméra) et les données d'ombre entre les yeux. Ainsi, pour chaque objet visible, nous n'avons besoin de rendre l'objet qu'une seule fois, ce qui peut entraîner des accélérations considérables, tout en garantissant des performances solides.

La différence entre le rendu en une passe et l'instanciation stéréo est que cette dernière est encore plus performante, mais nécessite un support matériel. Sans cette fonctionnalité, le moteur 3D rend la scène deux fois : une première fois pour rendre l'image de l'œil gauche, puis une seconde fois pour l'image de l'œil droit.

Depuis Unity 2017.3, toutes les plateformes prises en charge disposent de la stéréo à passage unique et, le cas échéant, de l'instanciation à passage unique.

L'opportunité :

Les boucles de rendu traditionnelles sollicitant moins le temps de traitement de l'unité centrale, vous disposez de plus de temps pour travailler sur d'autres aspects de votre projet VR.

Six degrés de liberté (6DOF)

Définition :

Un système à six degrés de liberté permet de suivre la position et la rotation d'un objet en trois dimensions. Les trois axes de position combinés aux trois axes de rotation totalisent six "degrés" qui peuvent être contrôlés librement.

L'opportunité :

Il existe une différence significative entre ce que l'on peut faire avec un suivi rotationnel 3DOF et un suivi complet 6DOF. Par exemple, la manette originale de la Wii ne suivait que la rotation, ce qui obligeait les développeurs de jeux à utiliser des "métaphores" de contrôle pour des choses telles que lancer une balle ou balancer une raquette de tennis. En revanche, les contrôleurs HTC Vive et Oculus Touch peuvent être contrôlés avec précision dans l'espace, ce qui permet aux utilisateurs de savoir où se trouvent leurs mains, d'apporter plus de nuances et de favoriser la présence.

SLAM (localisation et cartographie simultanées)

Définition :

La localisation et la cartographie simultanées sont le processus par lequel une carte est générée et mise à jour par un agent - peut-être un véhicule - se déplaçant dans cet espace, en même temps que cet agent est suivi dans l'espace. Il existe actuellement de nombreuses approches distinctes, et cette technologie apparaît comme essentielle pour les voitures autopilotées, les robots domestiques et les applications de réalité augmentée.

L'opportunité :

L'établissement des technologies SLAM et des algorithmes qui les alimentent a un vaste potentiel pour influencer l'évolution de la RA, en offrant un moyen pour de multiples applications pratiques, ainsi que dans les jeux et autres formes de divertissement.

Audio spatial (ou audio 3D)

Définition :

L'audio spatial fournit une méthode permettant de construire et de placer des ressources audio de sorte que, du point de vue de l'utilisateur de la RV, un son donné provient d'une position particulière dans une scène en 3D. C'est comme le son surround dans une installation de home cinéma ou au cinéma, et c'est très important pour la présence et l'immersion dans la RV.

L'opportunité :

Le son est l'un des éléments essentiels à la création d'une expérience VR immersive. Le son spatial vous permet d'entendre le son tout autour de vous et de suivre le son lorsque vous bougez la tête, comme dans la réalité. Cela signifie qu'un développeur VR peut, en plus d'offrir un plus grand réalisme, utiliser le son pour diriger ou guider un joueur, ainsi que pour des mécanismes plus innovants propres à la VR.

Stéréoscopie

Définition :

La reproduction des effets de la vision binoculaire par des moyens photographiques ou autres moyens graphiques. En d'autres termes, il s'agit de recréer l'expérience que les humains ont lorsqu'ils voient le monde réel avec leurs deux yeux. Les approches stéréoscopiques classiques fournissent deux images distinctes de la même scène : une pour l'œil gauche de l'utilisateur et une pour l'œil droit. Cela se produirait, par exemple, à travers les lentilles gauche et droite d'un HMD. Le cerveau de l'utilisateur combine ensuite les deux images pour construire une scène en 3D avec profondeur et perspective, comme c'est le cas pour ce que nos yeux gauche et droit voient - et comment ces images sont compilées - dans la réalité.

L'opportunité :

Le contenu de la RV est plus immersif, offre plus de présence et fournit une expérience plus distincte de celle observée sur les écrans plats traditionnels.

Instanciation stéréo

Définition :

Il s'agit d'une évolution du rendu à passage unique et de la dernière approche d'optimisation du rendu qui vise à aider les développeurs à garantir une expérience plus fluide dans la réalité virtuelle, où les budgets consacrés au taux de rafraîchissement sont incroyablement réduits par rapport aux contraintes du développement de jeux traditionnels.

L'opportunité :

Un moyen pour les développeurs d'économiser les temps de traitement de l'unité centrale et de libérer de l'énergie qu'ils peuvent utiliser ailleurs.

Pilote de pose suivi

Définition :

Un composant pilote intégré et multiplateforme qui simplifie la mise en place du suivi des mouvements des joueurs et des périphériques en faisant correspondre la position et la rotation d'un appareil ou d'un objet réel à sa pose - l'emplacement de l'objet virtuel correspondant.

L'opportunité :

Fournir un suivi convaincant, réaliste et réactif est beaucoup moins exigeant pour les créateurs. Pour les joueurs, l'immersion et la présence sont considérablement renforcées.

suivi

Définition :

Le suivi est essentiel pour une expérience VR totalement immersive. Essentiellement, en suivant la position du HMD VR - ou d'un périphérique tel qu'un contrôleur spécialisé - cette méthode indique à l'ordinateur où l'utilisateur regarde et ce qu'il fait afin qu'il puisse dessiner avec précision et de manière appropriée le monde virtuel qui l'entoure. Plus le suivi est précis, plus l'expérience VR est confortable. Voir aussi Suivi du mouvement, suivi de la position et suivi du regard.

L'opportunité :

Des moyens innovants de contrôler un jeu et, une fois de plus, une immersion et une présence accrues. Le suivi de la qualité permet également de lutter contre la cybermaladie.

La vallée étrange

Définition :

Initialement inventée par le professeur de robotique Masahiro Mori dans les années 1970, la vallée de l'inquiétude (uncanny valley) décrit un phénomène qui encadre les relations entre les humains et les objets physiques ou numériques qui prennent une forme humaine ou semblable à celle d'un être humain. Plus un objet ressemble à un être humain, plus un véritable être humain aura une réaction positive et engagée à l'égard de cet objet. Cependant, lorsqu'un objet ressemble presque à un être humain photoréaliste - mais pas tout à fait - la réaction positive de l'observateur diminue. Cette chute - telle qu'elle apparaît sur un simple graphique linéaire - est la "vallée" éponyme. Elle peut être ressentie lorsque nous trouvons un robot ou un personnage animé par ordinateur effrayant ou troublant parce qu'il semble presque réel, mais n'est pas convaincant.

Dans de nombreux cas, une forme humaine physique ou numérique qui n'est pas très réaliste peut être plus attrayante qu'une forme presque entièrement convaincante.

L'opportunité :

L'effet "uncanny valley" de la RV et d'autres formes de MX peut fortement nuire à l'immersion et à la présence. Par conséquent, les créateurs de contenu choisissent souvent de concevoir des personnages humains à faible fidélité plutôt que des personnages à haute fidélité qui recherchent le réalisme, afin d'éviter de provoquer une réaction négative de la part des téléspectateurs.

Système vestibulaire

Définition :

Un réseau de canaux dans l'oreille interne qui sert effectivement de détecteur de mouvement, nous permettant d'équilibrer et de comprendre nos mouvements. Les conflits entre les systèmes visuel et vestibulaire - ou "inadéquation vestibulaire" - sont à l'origine du cyber-malaise et du mal des transports.

L'opportunité :

Le système vestibulaire est tellement fondamental pour la façon dont nous interprétons les contenus VR, AR et MR - et pour les raisons de leur succès ou de leur échec - qu'une compréhension de base vous aidera à créer de meilleurs contenus qui donneront aux utilisateurs une expérience plus convaincante et plus immersive.

Réalité virtuelle

Définition :

Au fur et à mesure de l'évolution de la réalité virtuelle et de son utilisation dans différents secteurs, plusieurs définitions différentes sont apparues, dont la plupart se recoupent de manière significative. Des divergences existent. Les éléments suivants, cependant, sont presque universels dans l'encadrement de ce que la RV offre :

  • Images stéréoscopiques générées par ordinateur qui entourent entièrement l'utilisateur et remplacent entièrement l'environnement réel qui l'entoure. Nombreux sont ceux qui pensent que cette définition exclut à juste titre la vidéo 360 de la véritable RV.
  • Le contenu est consommé et vécu d'un point de vue centré sur le spectateur.
  • L'interaction en temps réel de l'utilisateur avec l'environnement virtuel est possible, qu'il s'agisse d'interactions détaillées ou de la simple possibilité de regarder autour de soi dans l'expérience. L'élément temps réel signifie ici que la réponse intervient dans un intervalle de temps particulier, spécifique à l'application ou au domaine.

L'opportunité :

Un niveau élevé d'immersion dans la RV est obtenu en faisant appel à vos deux sens les plus importants, la vision et l'ouïe, en utilisant un casque de RV et des écouteurs. Le casque VR enveloppe le monde virtuel ou l'expérience presque jusqu'à la limite de votre champ de vision naturel. Lorsque vous regardez autour de vous, vous faites l'expérience de l'environnement de la même manière que lorsque vous regardez autour de vous dans la vie réelle. Les écouteurs amplifient l'expérience en bloquant les bruits environnants, tout en permettant à l'utilisateur d'avoir accès à l'information.

vous permet d'entendre les sons dans l'expérience VR. Lorsque vous bougez la tête, les sons de l'environnement VR se déplacent autour de vous comme dans la réalité.

Des moteurs 3D comme Unity ont permis de créer et de fournir un contenu VR très soigné. Ces solutions rendent la création d'expériences de réalité virtuelle beaucoup plus accessible, ce qui signifie que la méthode d'affichage devient de plus en plus courante. Cela signifie qu'il existe une opportunité de maîtriser la création de contenu VR afin d'attirer un public de plus en plus large.

Programmation de la réalité virtuelle et de la réalité augmentée

Définition :

La programmation pour la RV et la RA est comparable à la programmation pour d'autres méthodes d'affichage et des types de contenu plus traditionnels. C++ et C# sont des formes de programmation particulièrement populaires pour la RA et la RV, reflétant la façon dont les outils de développement établis se sont adaptés à l'arrivée de la RV et de la RV tout en maintenant les conventions de codage établies.

L'opportunité :

Vos compétences en programmation - ou celles de votre équipe - sont prêtes pour le développement de la RV et de la RA.

Vidéo volumétrique

Définition :

Même la plus belle des vidéos 3D à 360° se heurte à la difficulté de permettre à l'utilisateur de se déplacer dans le monde avec autonomie et liberté. À ce jour, la plupart des vidéos à 360° limitent l'utilisateur à adopter et à suivre la position originale de la caméra au moment où elle a été utilisée pour capturer la vidéo. La vidéo volumétrique tente de remédier à cette limitation en capturant les données volumétriques d'un espace filmé, et ce pour chaque image. Ces données peuvent ensuite être utilisées pour présenter la scène comme s'il s'agissait d'une scène graphique rendue, ce qui signifie que l'utilisateur peut se promener dans la vidéo.

L'opportunité :

Contenu vidéo stéréoscopique à 360° avec action en direct dans lequel vous pouvez vous déplacer. Cela pourrait rendre réelles certaines des prédictions les plus folles sur ce que pourrait être la RV à l'avenir.

Installation de RV

Définition :

Les installations de RV sont des expériences de réalité virtuelle spécifiques à un lieu ou à un site. Il peut s'agir de créations uniques - comme les installations artistiques - ou de reproductions sur plusieurs sites, comme les parcs d'attractions. Ils sont souvent utilisés comme entités de marketing. Par exemple, la promotion d'un film lors d'un ComicCon, ou la publicité d'une marque lors d'un festival de musique. Dans un tel contexte, ils sont souvent soutenus par des décors et des effets physiques élaborés, tels que la production de vent ou des sols en mouvement. Les détaillants peuvent également mettre en place des installations de RV temporaires ou permanentes sur place, permettant aux consommateurs, par exemple, de tester l'expérience d'une nouvelle voiture qui n'est pas en stock dans la salle d'exposition.

L'opportunité :

Les installations de RV offrent aux consommateurs la possibilité de goûter à la réalité virtuelle haut de gamme sans avoir à investir dans un quelconque équipement. Elles offrent également une opportunité unique aux créateurs, car de plus en plus de marques cherchent à utiliser la RV comme outil de marketing.

WebAR

Définition :

Une norme ouverte qui permet de faire l'expérience de la réalité augmentée dans un navigateur, plutôt que de devoir télécharger des applications. Comparable à WebVR.

L'opportunité :

La technologie WebAR devrait être particulièrement importante pour la téléphonie mobile, où les sites web peuvent offrir des expériences de réalité augmentée via les navigateurs des smartphones, et où les développeurs peuvent fournir des applications web simples offrant un contenu de réalité augmentée. Cela devrait permettre de démocratiser considérablement la création de contenu AR et l'accès à ce contenu pour les utilisateurs. Il pourrait également fournir une capacité d'essai pratique pour les développeurs de la réalité augmentée.

WebVR

Définition :

Une norme ouverte qui permet de faire l'expérience de la RV via un navigateur, sans avoir à télécharger d'abord des applications spécialisées.

L'opportunité :

VR en utilisant seulement un casque et un navigateur web, plutôt que d'introduire le coût d'un matériel informatique haut de gamme. Il en résulte une RV plus accessible et un public potentiel plus large pour les créateurs de contenu. Comme pour WebAR, cette méthode pourrait, dans certains cas, offrir aux développeurs une option de test pratique.

Réalité étendue

Définition :

Expériences médiatisées par la technologie qui combinent des environnements et des réalités virtuels et réels. Ici, le "X" peut être considéré comme un substitut pour V(R), A(R) ou M(R), bien qu'il représente également une qualité/quantité indéfinie ou variable. XR couvre le matériel, les logiciels, les méthodes et l'expérience qui font de la réalité virtuelle, de la réalité mixte, de la réalité augmentée, de la réalité cinématographique et d'autres une réalité. La plupart des définitions de la RX englobent des plateformes et des contenus où l'utilisateur peut faire passer des objets numériques dans la réalité ou, inversement, voir des objets physiques présents dans une scène numérique.

Les expériences XR comprennent celles où les utilisateurs génèrent de nouvelles formes de réalité en introduisant des objets numériques dans le monde physique et celles qui voient l'introduction d'objets du monde physique dans le monde numérique.

XR est généralement utilisé comme un terme générique et est fréquemment utilisé comme raccourci pour regrouper des technologies telles que la RV, la RA et la RM.

L'opportunité :

L'exploration et la compréhension des RX au sens large - au lieu de se concentrer sur des environnements particuliers - devraient permettre aux créateurs de rester flexibles et d'évoluer avec les types de RX qui émergent, plutôt que d'être étouffés en s'engageant dans une forme unique.