O que você está procurando?
Hero background image
O que é AR, VR, MR, XR, 360?
A realidade virtual (VR) começou a entrar nas conversas convencionais há alguns anos e o setor está avançando rapidamente. Acompanhar os termos e acrônimos pode ser assustador. Para ajudar você a se manter informado, criamos um glossário de termos que abrangem todo o espectro de tecnologia imersiva, de AR a XR.
Vídeo 360

Definição:

Frequentemente chamados de “vídeos esféricos” ou “vídeos imersivos”, os vídeos 360 são gravações de vídeo em que uma visualização em várias direções é gravada simultaneamente. Normalmente, são filmadas usando uma câmera omnidirecional especializada ou uma coleção de câmeras separadas e conectadas montadas como uma matriz esférica. Os vídeos em 360 graus podem ser de ação ao vivo (cinematografia ou videografia que não usa animação), animados (capturados de uma cena 3D) ou uma mistura de gráficos gerados por computador e ação ao vivo. Depois de serem preparados para exibição por meio de uma tecnologia como um mecanismo de jogo 3D, os vídeos em 360 graus são visualizados pelo usuário em um fone de ouvido.

Os vídeos em 360 graus podem ser interativos ou não interativos. Vídeos 360 não interativos são experiências em que o espectador não pode influenciar a experiência de visualização além de, talvez, pausar o vídeo ou mover a cabeça para ver diferentes “ângulos de câmera”. Vídeos 360 interativos são experiências em que o espectador pode interagir com a interface do usuário ou outros elementos interativos usando o olhar ou um controle.

A oportunidade:

O vídeo 360 é uma oportunidade para os criadores trabalharem com uma variedade de setores que agora desejam fornecer conteúdo em formato de marketing ou entretenimento. Embora parte da produção de vídeo em 360 graus seja diferente da criação a partir de ativos digitais, o processo de pós-produção é relativamente comparável à criação de jogos e outros conteúdos digitais de RM.

Áudio ambisônico

Definição:

Essa técnica de som surround abrange fontes de som abaixo e acima do usuário. Oficialmente uma técnica de “esfera cheia”, ela também serve para fontes de áudio posicionadas no plano horizontal. Os ambisônicos são armazenados em um formato multicanal. Em vez de cada canal mapeado para um alto-falante específico, os ambisônicos representam o campo sonoro de uma forma mais geral. O campo sonoro pode então ser girado com base na orientação do ouvinte — por exemplo, a rotação da cabeça do usuário em XR. O campo sonoro também pode ser decodificado em um formato que corresponda à configuração do alto-falante. Os Ambisonics geralmente são combinados com vídeos em 360 graus e usados como uma cabine de áudio para sons ambientes distantes.

A oportunidade:

Embora o áudio ambisônico signifique potencialmente mais despesas, tanto em termos de memória quanto de produção, ele concede à sua experiência de realidade virtual uma paisagem sonora totalmente envolvente. O design e a produção de áudio são mais importantes para a realidade virtual do que os métodos de exibição anteriores, e o “som 3D” tornará a maioria das experiências de realidade virtual ainda mais convincentes e envolventes.

Anti-Aliasing

Definição:

Em seu nível mais fundamental, a suavização de borda é uma técnica que suaviza as linhas irregulares nas bordas dos ativos tridimensionais. A abordagem suaviza a cor de uma borda com a cor dos pixels imediatamente ao redor dela. A suavização de borda é particularmente crucial em VR, onde as bordas irregulares podem prejudicar a imersão e a presença.

A oportunidade:

O anti-aliasing fornece um meio simples e bem estabelecido para melhorar a fidelidade visual em conteúdo virtual 3D. Mecanismos 3D como o Unity permitem que os desenvolvedores usem a renderização direta para ativar a suavização de várias amostras em muitos casos. Embora a renderização adiada não permita a suavização de borda em várias amostras, nesses casos, os desenvolvedores podem optar por aplicar a suavização de borda como efeito posterior.

API (interface de programação de aplicativos)

Definição:

Uma API, ou “Interface de Programação de Aplicativos”, é um conceito comum no desenvolvimento de software, encontrado em todo o desenvolvimento de conteúdo de VR e AR. Em essência, é uma interface padronizada que permite que o software se conecte a um sistema operacional e faça uso de seus recursos. As APIs não são visíveis para o usuário de uma experiência de VR ou AR.

A oportunidade:

Acessar e aproveitar os recursos e o potencial de um sistema operacional é mais simples, padronizado e eficiente.

ARCore

Definição:

Uma solução somente de software para AR que funciona em todos os telefones Android que executam o Android Nougat ou qualquer versão posterior do sistema operacional. Isso possibilitará experiências móveis de AR em grande escala, de forma semelhante à que o ARKit fornece para iOS. Na verdade, o SDK em si tem uma funcionalidade semelhante à do ARKit. O Google não tem certeza se o ARCore estará alojado no Android ou se será um produto independente. Eles confirmaram que não fará parte da marca Daydream.

A oportunidade:

Se o ARCore for tão bem-sucedido quanto o Google espera, ele oferece a um grande público uma plataforma de AR acessível. Isso, é claro, significa uma grande audiência para seu conteúdo de AR.

SDK ARCore para Unity

Definição:

O kit de desenvolvimento de software que permite o desenvolvimento de aplicativos de AR voltados para dispositivos Android e ARCore.

A oportunidade:

Uma maneira conveniente e eficiente de criar conteúdo para dispositivos ARCore.

ARKit

Definição:

Uma estrutura que permite criar e lançar experiências de realidade aumentada para iPhone e iPad.

A oportunidade:

Um meio acessível para levar experiências de AR ao grande público do iOS

Plugin ARKit

Definição:

O pacote de software Unity que permite o desenvolvimento de aplicativos voltados para o ARKit para iOS.

A oportunidade:

Desenvolvimento de AR mais acessível e de alta qualidade para plataformas iOS.

Estimativa de luz AR

Definição:

Informações — com base em aproximações calculadas — sobre qualquer iluminação de cena associada a quadros de vídeo capturados de uma sessão de AR.

A oportunidade:

O AR Light Estimation oferece a oportunidade de garantir que os objetos virtuais renderizados na parte superior do feed da câmera pareçam pertencer ao ambiente, o que é essencial para a imersão.

Espacializador de áudio

Definição:

Um recurso que muda a forma como o áudio é transmitido de uma fonte de áudio para o espaço circundante. Um plugin desse tipo pega a fonte e regula os ganhos das contribuições dos ouvidos esquerdo e direito; em um mecanismo 3D como o Unity, o cálculo é baseado na distância e no ângulo entre o AudioListener e o AudioSource.

A oportunidade:

Som mais convincente e envolvente que complementa a natureza 3D do seu conteúdo de VR.

SDK do Espacializador de Áudio

Definição:

Uma extensão do SDK do plugin de áudio nativo que permite alterar a forma como o áudio é transmitido de uma fonte de áudio para o espaço circundante. A panorâmica integrada das fontes de áudio é uma forma simples de áudio espacial — ela pega a fonte e regula os ganhos das contribuições dos ouvidos esquerdo e direito com base na distância e no ângulo entre o AudioListener e o AudioSource. Isso fornece dicas direcionais simples para o jogador no plano horizontal.

A oportunidade:

Esse SDK oferece um meio simples, pouco exigente e eficiente para implementar o potencial oferecido pelos recursos do espacializador de áudio.

Realidade aumentada (AR)

Definição:

A realidade aumentada é a sobreposição de conteúdo criado digitalmente sobre o mundo real. A realidade aumentada — ou 'AR' — permite que o usuário interaja com o mundo real e com elementos ou aprimoramentos digitais. A AR pode ser oferecida aos usuários por meio de fones de ouvido como o HoloLens da Microsoft ou pela câmera de vídeo de um smartphone.

Tanto em implementações práticas quanto experimentais, a realidade aumentada também pode substituir ou diminuir a percepção do usuário sobre a realidade. Essa percepção alterada pode incluir a simulação de uma condição ocular para fins de treinamento médico ou a obstrução gradual da realidade para introduzir um mundo de jogo. É importante notar que há um ponto em que a realidade aumentada e a realidade virtual provavelmente se fundem ou se sobrepõem. Veja também, Realidade mista neste glossário.

A oportunidade:

Embora grande parte do interesse do consumidor, da atividade de investimento e do entusiasmo do setor tenha se concentrado primeiro na realidade virtual, a realidade aumentada está se tornando cada vez mais proeminente graças à falta de hardware dedicado. A acessibilidade fornecida pela AR, ao não restringir completamente a visão do usuário, juntamente com o vasto potencial de uso ilimitado, aumentaram sua popularidade. Conforme demonstrado pelo sucesso fenomenal do Pokémon GO — bem como pela rápida aceitação da AR como ferramenta em locais de trabalho industriais e criativos — a AR tem a oportunidade de obter um sucesso substancial alcançando grandes públicos. Para mais informações sobre a oportunidade que a AR apresenta, confira a primeira e a segunda parte do blog da Unity que explora o futuro da realidade aumentada.

Virtualidade aumentada

Definição simples:

No continuum de realidade mista, a virtualidade aumentada está em algum lugar entre AR e VR. A definição precisa se refere a trazer objetos do mundo real para mundos virtuais, onde eles podem ser interagidos. Pode ser visto como uma reversão — ou um espelho — do que é a realidade aumentada.

A virtualidade aumentada talvez seja melhor entendida como um exemplo específico ou implementação de MR. O uso de “virtualidade aumentada” é impreciso, então considere “virtualidade aumentada” uma terminologia flexível.

A oportunidade:

A virtualidade aumentada apresenta um meio de tornar os espaços de VR mais intuitivos do ponto de vista da interface do usuário, além de mais familiares e “amigáveis” para novos usuários.

VR cinematográfica

Definição:

A realidade virtual oferece um enorme potencial aos cineastas e ao público, oferecendo uma nova maneira de contar histórias, aproveitando todo o potencial imersivo da realidade virtual e aproveitando o poder da presença. Há muitos exemplos distintos de realidade virtual cinematográfica, desde narrativas lineares nas quais o espectador pode participar até histórias e “filmes” ramificados com elementos semelhantes aos de uma jogabilidade. Embora existam diferentes interpretações do termo, a realidade virtual cinematográfica abrange essencialmente as muitas abordagens em que o conteúdo de realidade virtual se apropria ou emprega métodos de produção cinematográfica para oferecer experiências narrativas.

A oportunidade:

Se você é cineasta, há uma revolução na criatividade em andamento. Se você é um espectador, o filme está prestes a ficar muito mais variado e emocionante. E se você criar conteúdo para VR, como jogos, a realidade virtual cinematográfica pode abrir as portas para você abrir suas asas e criar para novos setores.

CPU (Unidade de Processamento de Computador)

Definição:

A unidade de processamento do computador pode ser vista como o componente central de um computador moderno. A função da CPU é executar as instruções fornecidas por um programa de computador. Hoje, você normalmente descobrirá que as CPUs são microprocessadores, portanto, são compostas por um único circuito integrado.

A oportunidade:

Usando o profiler de um mecanismo de jogo, os desenvolvedores podem ver quanta demanda de renderização está sendo colocada na CPU. Ao entender esses dados, você pode otimizar áreas do conteúdo de VR para garantir uma experiência melhor e mais confortável para os usuários.

Doença cibernética (também conhecida como doença de realidade virtual ou doença de simulação)

Definição:

O enjôo — geralmente sentido em uma longa viagem de carro ou voo de avião — acontece quando as pessoas estão se movendo pelo espaço físico enquanto seu cérebro entende que elas estão paradas, pois seu corpo não está contribuindo para o impulso. A doença cibernética, por outro lado, acontece quando o sujeito está parado, mas tem uma sensação de movimento convincente induzida pela exposição a imagens visuais variáveis. (Arns e Cerney, 2005)

A sensação de enjôo cibernético é, no entanto, comparável à experiência do enjôo.

Não há um único fator que cause enjôo. Por exemplo, elementos como atraso, taxa de atualização e taxa de atualização da tela visual podem causar doenças. Outros fatores que podem influenciar a doença são contraste, resolução, cor, campo de visão, região de visualização, visualização binocular, conteúdo da cena, cintilação e movimento da câmera.

No início da geração atual de VR, a doença da simulação foi considerada mais comum e continua a oferecer uma associação negativa com a VR para muitos usuários. Agora, é geralmente aceito que a maior parte da responsabilidade pela prevenção de doenças cibernéticas recai sobre o conteúdo e não sobre o hardware. Muitos acreditam que os usuários podem desenvolver uma tolerância às doenças cibernéticas por meio do uso. Ainda há muito a ser aprendido sobre a experiência; particularmente seu efeito em usuários mais jovens.

A oportunidade:

Isso representa um desafio significativo, tanto para projetos individuais quanto para a reputação geral e o potencial da VR. O conteúdo de VR que causa doenças cibernéticas pode limitar severamente a adoção e prejudicar a reputação da VR. Faça sua pesquisa. E muitos testes. Felizmente, as melhores práticas em relação às doenças cibernéticas agora são compartilhadas pelo setor.

Pipeline de transformação Direct3D

Definição:

O Direct3D Transformation Pipeline é um pipeline de transformação gráfica específico para a API gráfica Direct3D para Microsoft Windows. Essa implementação de um pipeline de transformação gráfica usa três matrizes Direct 3D: transformação do mundo; transformação de visualização; transformação de projeção. As matrizes Direct3D funcionam como aquelas vistas em pipelines de transformação gráfica de alto nível.

A oportunidade:

Um pipeline de transformação gráfica está disponível sob medida para aqueles que trabalham com o Direct3D.

Rastreamento ocular

Definição:

As câmeras dentro da tela montada na cabeça podem rastrear para qual direção o usuário está olhando. O rastreamento ocular pode ser usado como um novo eixo de entrada; por exemplo, para mirar em aeronaves inimigas em um jogo de luta de cães. Por exemplo, o FOVE é um HMD lançado no Kickstarter que promete recursos de rastreamento ocular e um SDK de renderização foveado.

Embora o rastreamento ocular não seja um pré-requisito para a renderização focalizada, ele pode oferecer melhorias significativas ao ser capaz de mudar a região de alto detalhe com base na direção dos olhos do usuário. Além disso, novos usuários tendem a ter dificuldade em superar a inclinação natural de olhar em volta com os olhos. O problema é que as ópticas HMD tendem a funcionar melhor quando se olha diretamente para o centro da tela. Idealmente, o usuário move a cabeça para olhar ao redor. O rastreamento ocular é o primeiro passo para permitir que os usuários usem seus olhos para rastrear naturalmente em VR.

A oportunidade:

Uma forma de oferecer conteúdo de VR mais confortável, intuitivo e mais envolvente.

Rastreamento facial

Definição:

Tecnologia de visão computacional projetada para obter dados de imagens estáticas e sequências de vídeo rastreando certas características faciais em tempo real.

A oportunidade:

Personagens e interações mais convincentes e naturais no jogo, fortalecendo a narrativa, a imersão e a presença, ao mesmo tempo em que oferecem o potencial para novos mecanismos inovadores de interação.

Campo de consideração

Definição:

Relacionado ao campo de visão, o campo de visão abrange o espaço que um usuário pode ver de uma determinada posição, inclusive ao mover os olhos, a cabeça e o pescoço.

A oportunidade:

Junto com o campo de visão, o campo de visão é a perspectiva do espectador sobre a qual a cinematografia ou o enquadramento de uma determinada experiência de VR, AR ou RM é estabelecida.

Campo de visão (FOV)

Definição:

O campo de visão é tudo o que você pode ver enquanto olha para frente. O FOV é a extensão de sua visão natural, tanto na realidade quanto no conteúdo MX. O campo de visão humano médio é de aproximadamente 200 graus.

Ao pesquisar fones de ouvido de realidade virtual — também conhecidos como monitores montados na cabeça ou HMDs — você verá que há uma especificação para o campo de visão. A maioria dos fones de ouvido VR atuais tem um campo de visão mínimo de 90 a 110 graus, que é a base para uma ótima experiência de VR. Quanto maior o campo de visão, mais do ambiente o usuário verá, pois ele se estenderá até o limite de sua visão e, como resultado, mais imersiva será a experiência. Semelhante à diferença entre uma tela de cinema IMAX e uma tela de cinema normal. A tela IMAX é muito maior e, portanto, ocupa mais do seu campo de visão, o que permite que você veja mais, criando assim um tipo de experiência mais envolvente.

É difícil obter um amplo campo de visão porque as limitações da ótica da lente — aberração cromática e distorção de barril — se tornam mais severas e a ótica em si precisa ser maior ou mais complexa. Como uma fotografia tirada com uma lente olho de peixe, as imagens na tela do HMD são distorcidas para dar conta da ótica do HMD. Além disso, ampliar o campo de visão “amplia” a resolução de tela disponível, o que significa que a resolução deve aumentar para manter as mesmas densidades de pixels em ângulos de FOV mais altos — o impacto potencial pode ser diminuído pelo uso de sombreamento VR de várias resoluções e renderização foveada.

Também é importante notar que alguns fones de ouvido — como o HoloLens — também apresentam um campo de visão limitado. Pode-se entender que o campo de visão de uma experiência de AR de smartphone é o tamanho de tela disponível, embora essa não seja uma definição técnica estrita.

Em casos raros, o campo de visão é chamado de campo de visão. Veja também: Campo de consideração.

A oportunidade:

Se você é um fabricante de HMD, os problemas de FOV são muito em que pensar. Para criadores de conteúdo, as limitações de FOV de hardware definem efetivamente a “tela” na qual sua visão de VR ou AR pode ser pintada, por isso é um fator importante, especialmente para lançamentos em vários formatos.

Renderização coveada

Definição:

Ao trabalhar para complementar a biologia humana, os mecanismos avançados de renderização de VR poderão passar mais tempo no centro do campo visual, renderizando menos detalhes nas áreas periféricas do campo de visão.

O computador pode renderizar a cena inteira mais rapidamente se permitir renderizar em uma resolução mais baixa ou com objetos simplificados. Como os olhos humanos percebem mais detalhes no centro do campo visual, há muitos detalhes em cada quadro que nem vemos. Ao renderizar com baixa qualidade na borda do quadro, o computador pode passar mais tempo renderizando detalhes no centro ou renderizar um único quadro mais rapidamente.

A oportunidade:

A renderização foveada oferece uma enorme economia de velocidade. Da mesma forma, ele fornece mais memória para jogar no que diz respeito à GPU e mais liberdade para realizar suas ideias em VR sem ser limitado pelas demandas de renderizar cenas inteiras na mais alta resolução.

Quadros por segundo (FPS)

Definição:

“Quadros por segundo” — ou FPS, para abreviar — se refere ao número de vezes que uma imagem na tela é atualizada a cada segundo.

A oportunidade:

Quanto mais altos os quadros por segundo, mais suave será o movimento e mais confortável será a experiência de VR. Isso é extremamente importante para a realidade virtual, pois movimentos lentos ou instáveis geralmente causam doenças na simulação. Para que os usuários se sintam confortáveis ao experimentar a realidade virtual, eles devem comprar um fone de ouvido de realidade virtual que possa atingir pelo menos 90 FPS para VR de desktop ou console e pelo menos 60 FPS para dispositivos móveis. Atualmente, a maioria dos fones de ouvido VR no mercado atinge de 60 a 120 quadros por segundo. Isso também é conhecido como taxa de atualização da tela e às vezes é identificado em Hertz — por exemplo, 90 Hz.

Abate de frutas

Definição:

As propriedades do plano de clipe próximo e distante são aquelas que determinam onde o ponto de vista de uma câmera em uma cena começa e termina. Os planos são dispostos perpendicularmente à direção da câmera e medidos a partir de sua posição. O plano próximo é o local mais próximo que será renderizado e o plano distante é o mais distante. Os planos de corte próximos e distantes — junto com os planos definidos pelo campo de visão da câmera — descrevem o que é popularmente conhecido como o fruto da câmera. O abate de frutas envolve não exibir objetos que estão totalmente fora dessa área. Em mecanismos 3D como o Unity, a eliminação de frutas acontece independentemente de você usar a eliminação por oclusão em seu jogo.

A oportunidade:

O Frustum culling pode melhorar significativamente o desempenho em realidade virtual, ajudando a oferecer experiências mais confortáveis, impressionantes e envolventes.

Rastreamento do olhar (também conhecido como rastreamento ocular)

Definição:

Rastrear a direção e o movimento dos olhos de um usuário e, às vezes, usar os dados rastreados como entrada. Veja também: Rastreamento da cabeça.

A oportunidade:

Um método para permitir controles e entradas de usuário muito sutis e diferenciados e uma forma de extrair dados sobre como os usuários interagem com uma determinada experiência. O rastreamento do olhar também oferece uma ferramenta poderosa de acessibilidade, fornecendo um meio de interação aos usuários com, por exemplo, movimentos físicos limitados.

Pipeline de transformação gráfica

Definição:

O pipeline de transformação gráfica é um método estabelecido para pegar objetos criados em software gráfico, mecanismos de jogo e similares e entregá-los ao espaço pretendido em uma cena e, finalmente, à visão do usuário. Os pipelines de transformação gráfica funcionam efetivamente com VR e AR da mesma forma que com os métodos de exibição 3D mais tradicionais.

A oportunidade:

Uma forma confiável e estabelecida de garantir que seus objetos apareçam em uma cena de VR ou AR conforme o esperado. Os pipelines de transformação gráfica e as matrizes associadas geralmente são fornecidos por um mecanismo de jogo 3D como o Unity, o que significa que você não precisará se preocupar muito com a jornada de seus objetos 3D até a casa de VR ou AR na tela do usuário.

GPU (unidade de processamento gráfico)

Definição:

Uma unidade de processamento gráfico consiste em um componente — ou seja, um circuito eletrônico — empregado especificamente para acelerar a produção de imagens dentro de um buffer de quadros. Nesse caso, essas imagens são criadas para exibição em uma tela ou similar. Eles são encontrados em computadores pessoais, estações de trabalho, consoles de jogos, dispositivos móveis e muitos outros lugares. A realidade virtual coloca uma demanda considerável em uma GPU, em grande parte graças à necessidade do método de exibição de criar imagens distintas para os olhos esquerdo e direito do usuário, respectivamente.

A oportunidade:

Os consumidores precisam investir uma quantia razoável para obter potência de GPU suficiente para oferecer suporte a soluções de VR de última geração, como Oculus Rift e HTC Vive. Embora o custo possa limitar significativamente o público potencial de VR, surgiram vários métodos para otimizar o desempenho da GPU em realidade virtual, muitos dos quais estão definidos neste glossário.

Haptics (também conhecido como Touch Feedback)

Definição:

Os hápticos simulam e estimulam o sentido do tato aplicando várias forças — mais comumente vibrações — ao usuário, por meio de dispositivos de entrada ou dispositivos táteis específicos. Os hápticos são usados para dar tangibilidade a um objeto ou movimento na tela. Os controladores de jogos vibratórios oferecem o exemplo clássico, mas também incluem a vibração fornecida pela tela de um smartphone e abordagens modernas, como matrizes de alto-falantes de ultrassom que projetam texturas no ar que o usuário de VR pode sentir ao interagir com o conteúdo.

A oportunidade:

Outra forma de melhorar a imersão em VR e, particularmente, a presença em VR.

Fone de ouvido (também conhecido como monitor montado na cabeça ou HMD)

Definição:

Um fone de ouvido de realidade virtual ou aumentada normalmente assume a forma de um dispositivo semelhante a um óculos que o usuário usa na cabeça, cobrindo ou fechando os olhos. Os fones de ouvido VR geralmente contêm uma tela e lentes que permitem ao usuário ver o mundo virtual ou uma tela translúcida na qual o conteúdo de realidade aumentada pode ser exibido. Muitos fones de ouvido diferentes atendem a várias plataformas de hardware diferentes, e qualquer coisa, de um telefone a um console, pode gerar conteúdo de VR. Isso significa que é melhor trabalhar com ferramentas e tecnologias criativas que suportem o maior número possível de plataformas de VR diferentes.

A oportunidade:

O fone de ouvido VR é a base da realidade virtual moderna e estabeleceu o modelo agora seguido por AR e outros HMDs. A tecnologia percorreu um longo caminho nos últimos 50-60 anos, e os pesados, desconfortáveis e extremamente caros fones de ouvido VR do início dos anos 70 evoluíram para algo aproximadamente do mesmo tamanho de óculos de esqui ou snowboard. Alguns fones de ouvido VR até usam seu telefone como tela, como o Samsung Gear VR ou o Google Cardboard. Ao pesquisar fones de ouvido VR, verifique se as telas estão embutidas ou se é necessário usar seu telefone celular. Se você está procurando a melhor experiência imersiva, vale a pena considerar fones de ouvido VR de última geração, como o Oculus Rift ou o HTC Vive. Mas lembre-se de que os fones de ouvido VR de última geração exigirão um computador de última geração para executá-los. Se você está procurando uma experiência de realidade virtual móvel de ótima qualidade, o Samsung Gear VR e o Google Daydream oferecem experiências com mais nuances do que os visualizadores de realidade virtual de papelão; o último é extremamente acessível e uma ótima maneira de demonstrar a simplicidade fundamental da realidade virtual.

Monitoramento da cabeça

Definição:

Usando várias abordagens, o rastreamento de cabeça monitora e rastreia a posição e os movimentos da cabeça e do pescoço de um determinado usuário, oferecendo um meio potencial de entrada e interação.

Por exemplo, se o pescoço e a cabeça do usuário estiverem levemente inclinados para um lado, com o rastreamento da cabeça ativado, o que ele vê no HMD pode mudar para o mesmo ângulo. Um usuário também pode esticar o pescoço para olhar ao redor ou para cima e para cima de alguma coisa. Esse mesmo usuário poderia fazer um movimento como “olhar para o chão” para ativar uma ação de jogo específica.

A oportunidade:

O rastreamento de cabeça está no cerne do que a realidade virtual oferece — uma chance de criar mundos que o usuário possa explorar da mesma forma que interage com o mundo real.

Imersão

Definição:

Imersão se refere a atrair um usuário completamente para um mundo virtual. Embora a presença em VR se refira especificamente à sensação ou crença subconsciente de que você existe em uma determinada experiência, imersão tende a ser um termo mais geral para se tornar totalmente englobado e esquecer a realidade. Em VR, a imersão assume um sentido prático, pois os olhos, ouvidos e, às vezes, até as mãos e o corpo dos usuários estão engajados, bloqueando assim quaisquer sinais ou estímulos sensoriais da realidade.

A oportunidade:

A imersão é o principal poder da VR — e de algumas criações de AR — esteja você pensando em imergir seus usuários em uma experiência convincente ou em uma. A imersão é o apelo da VR e oferece uma oportunidade de engajar o público.

Experiências imersivas

Definição:

A noção de experiências imersivas é muito anterior à geração atual de VR e AR, embora inclua experiências que usam essas formas — e potencialmente todo o conteúdo de MR e XR. O termo foi usado até mesmo para abranger abordagens específicas de design de sites e coisas como design de brinquedos em parques de diversões. No entanto, no que diz respeito à VR, o termo se refere a experiências totalmente interativas, minimamente interativas e sem jogos. Eles podem ser oferecidos como vídeo verdadeiro em VR e em 360 graus. O termo é muito amplo — muito parecido com o XR — mas nesse contexto não inclui experiências digitais e cinematográficas tradicionais consumidas por meio de uma tela plana tradicional.

A oportunidade:

Uma chance de engajar usuários, explorar novas formas criativas, educar, entreter, treinar, servir, promover e muito mais.

Entretenimento imersivo/hiper-realidade

Definição:

Conteúdo de entretenimento, promocional e experimental que combina a fisicalidade do mundo real com VR ou AR, além de outras formas, como escrever narrativas e fazer filmes.

A oportunidade:

Uma oportunidade de criar conteúdo para parques de diversões, fliperamas, shoppings e muitos outros locais físicos, o que pode fornecer um amplo ponto de acesso por meio do qual o público possa experimentar a realidade virtual pela primeira vez.

Unidade de medição inercial (IMU, também conhecida como Odometria)

Definição:

Uma IMU — ou unidade de medição inercial — é um dispositivo eletrônico que pode detectar movimento por vários meios e tecnologias. As IMUs consistem em um acelerômetro, giroscópio ou bússola para medir a rotação absoluta do dispositivo com latência muito baixa e são usadas, por exemplo, no rastreamento da cabeça. Combinado com sistemas de rastreamento óptico, um IMU pode ser usado para determinar a direção de visão de um HMD.

Como acontece com qualquer sistema de rastreamento, latência e precisão são fatores-chave para uma IMU. Geralmente, esses recursos não são anunciados e não variam significativamente entre os dispositivos. É importante notar que o Samsung GearVR inclui um IMU dedicado, ao contrário do Google Cardboard e do Daydream, que dependem do que o IMU embutido de um determinado telefone traz para os fones de ouvido.

A oportunidade:

A mesma tecnologia subjacente que transforma seu telefone de paisagem para retrato ou fornece controle de inclinação para jogos móveis é usada em HMDs de realidade virtual para combinar a câmera virtual com a direção da cabeça do usuário. Isso oferece uma oportunidade para todos os tipos de formas inovadoras de controle e imersão em experiências de VR.

Entrada

Definição:

Uma entrada fornece uma maneira de interagir com uma máquina, computador ou outro dispositivo. Especificamente no caso de VR e AR, “entrada” se refere ao método de controle que você usará para realidade virtual e formulários relacionados. Isso provavelmente significa rastreamento de movimento com controladores, mas muitas experiências de VR, AR e relacionadas permitem que o usuário interaja usando um mouse e teclado ou um gamepad.

À medida que a realidade virtual amadurece, muitas formas alternativas de entrada estão se tornando disponíveis e acessíveis, desde luvas que rastreiam os movimentos de dedos individuais até trajes corporais que permitem que todo o corpo seja rastreado em uma experiência de realidade virtual.

A oportunidade:

Para designers, os insumos oferecem várias maneiras de oferecer mecânicas de jogo incomuns. Para os usuários, eles são um meio de interagir com os mundos digitais e se sentirem genuinamente imersos. As abordagens de entrada que não complementam o conteúdo de VR que elas veiculam podem fazer muito para desconectar o usuário da experiência, minando o maior potencial do formulário: o da imersão. Portanto, os criadores de 3D dão muita atenção à tomada de decisões.

Rastreamento de dentro para fora/de fora para dentro

Definição:

As duas principais plataformas de realidade virtual para desktop — o HTC Vive e o Oculus Rift — dependem de uma câmera ou de um “farol” para serem colocadas em uma posição fixa na sala fora do próprio HMD. Isso é o que define o rastreamento externo. Enquanto isso, dispositivos como os fones de ouvido Windows Immersive Mixed Reality e o Microsoft HoloLens usam uma técnica chamada odometria visual para analisar imagens de câmeras montadas no próprio HMD, que servem para rastrear sua posição em relação ao ambiente ao seu redor. Esse último método pode ser entendido, em contraste com as configurações de câmeras externas, para oferecer rastreamento de dentro para fora.

A oportunidade:

Embora as convenções de hardware estejam principalmente nas mãos dos próprios detentores da plataforma, as duas opções disponíveis aumentam o número de configurações nas quais a VR e a AR são relevantes e, portanto, o cenário potencial de audiências e experiências.

Distância interpupilar (IPD)

Definição:

A distância medida entre as pupilas dos olhos de um determinado usuário. O IPD pode ser entendido como uma espécie de “medição básica” que fornece uma base para a escala em VR. Alguns HMDs permitem o ajuste físico do deslocamento horizontal das lentes para melhor corresponder ao IPD individual do usuário.

A oportunidade:

Embora as convenções de hardware estejam principalmente nas mãos dos próprios detentores da plataforma, as duas opções disponíveis aumentam o número de configurações nas quais a VR e a AR são relevantes e, portanto, o cenário potencial de audiências e experiências.

Latência

Definição:

Latência é a velocidade com que o mundo virtual reage ao movimento de um usuário. Um mundo virtual com alta latência pode ser descrito como mostrando atraso. Como regra simples, quanto menor a latência, mais confortável será a experiência. A regra geral é que a latência seja inferior a 20 milissegundos. Quanto menor o número de milissegundos, melhor será a experiência.

A latência também pode se referir à taxa na qual um mundo virtual é atualizado para o usuário.

A oportunidade:

A baixa latência combate as doenças cibernéticas e, assim, aumenta a imersão e a presença. Em um nível ainda mais fundamental, é um meio pelo qual se sentir confortável em um mundo virtual.

No que diz respeito à atualização mundial, manter a latência no mínimo torna os mundos mais convincentes e as experiências interativas mais gratificantes.

A latência é um fator essencial na qualidade geral de uma experiência de XR.

Tecnologia de campo de luz

Definição:

A tecnologia de campo de luz agrupa várias tecnologias computacionais de imagem e exibição, soluções de hardware e processamento de imagem que permitem a captura de imagens e vídeos que podem ser alterados após a captura. O resultado, a abertura e o foco no conteúdo de vídeo podem ser ajustados na postagem e, potencialmente, dentro da experiência individual de um único usuário. Criadas pela empresa Lytro, as câmeras com tecnologia de campo de luz funcionam de maneira fundamentalmente semelhante às câmeras digitais contemporâneas. No entanto, eles usam um conjunto de microlentes construído a partir de cerca de 200.000 lentes minúsculas, que são usadas para capturar inúmeras perspectivas distintas à medida que a luz atinge o processador da câmera de vários ângulos. Por outro lado, o sensor de imagem de uma câmera digital convencional captura a luz quando ela entra de uma única perspectiva, imitando os fundamentos de uma câmera de filme tradicional.

Muito do trabalho também é feito por meio de software de processamento e calibração. Veja também: Vídeo de campo de luz.

A oportunidade:

A tecnologia de campo de luz oferece o potencial de conteúdo de vídeo 360, VR, AR e MR muito mais matizado, realista e variável, com grande potencial para interações inovadoras e a capacidade de os usuários passarem por experiências de vídeo sem precisar ficar ancorados no ponto de vista original da câmera de captura.

Vídeo de campo de luz

Definição:

Usando uma configuração exclusiva que combina uma câmera de vídeo DSLR tradicional e uma câmera Lytro Illum — a última das quais é uma câmera de campo de luz — uma equipe de acadêmicos de Berkeley e San Diego construiu um dispositivo híbrido que permite vídeo de campo de luz no nível do hardware do consumidor. Normalmente, as câmeras com tecnologia de campo de luz têm uma taxa de quadros máxima de apenas 3 FPS, o que as torna inadequadas para vídeo. Essa nova abordagem traz todas as vantagens das câmeras de campo de luz para o trabalho em vídeo, ou seja, a capacidade de refocar, mudar de visão, mudar de abertura e muito mais, tudo após o ponto em que o vídeo foi capturado.

A oportunidade:

Uma tecnologia emergente que traz vasto potencial e flexibilidade para 360 e outras formas de vídeo imersivo, em termos de processo de pós-produção e design interativo e criatividade. De forma mais ampla, a tecnologia de campo de luz oferece maneiras de simular sinais do mundo real sobre foco, perspectiva e distância em conteúdo de vídeo VR e 360.

Tela de baixa persistência

Definição:

A capacidade de dar uma olhada em uma experiência é provavelmente um dos pontos fortes mais fundamentais que a VR oferece. No entanto, muitas das primeiras tecnologias de VR foram prejudicadas pelo fato de que movimentos rápidos do usuário podiam causar imagens borradas, causar desconforto e interromper a imersão. Uma tela de baixa persistência oferece um meio de resolver esse problema.

Como parte da especificação Daydream do Google, um modo de baixa persistência para telas de smartphones oferece um grande diferencial, elevando a oferta de “apenas usar um smartphone com algumas lentes” para ser muito mais um verdadeiro HMD de VR; embora com a acessibilidade de plataformas móveis. O Samsung Gear VR muda para esse modo especial quando é inserido no HMD e pode ser ativado manualmente usando o modo de desenvolvedor do Gear VR. Nesse modo, quando visto de fora do HMD, o dispositivo parece piscar. Por esse motivo, é vital que o estado de baixa persistência seja temporário.

A oportunidade:

Uma forma cada vez mais refinada de dar aos usuários a liberdade de se movimentar como quiserem e desfrutar da verdadeira presença nos mundos que você cria.

Realidade mista (MR)

Definição:

Uma experiência de realidade mista é aquela que combina perfeitamente o ambiente real do usuário com o conteúdo criado digitalmente, onde os dois ambientes podem coexistir e interagir uns com os outros. Muitas vezes, ele pode ser encontrado em experiências e instalações de VR e pode ser entendido como um continuum no qual VR pura e AR pura são encontradas. Comparável ao entretenimento imersivo/hiper-realidade.

A realidade mista tem sido amplamente usada como termo de marketing, e muitas definições alternativas coexistem hoje, algumas abrangendo experiências de AR ou experiências que se movem entre VR e AR. No entanto, a definição acima está emergindo cada vez mais como o significado acordado do termo.

A oportunidade:

Embora a realidade mista ofereça muitos desafios de design e seja necessário muito progresso em relação às plataformas que a hospedam e oferecem suporte, há uma grande oportunidade de levar uma diversidade de experiências e métodos de exibição ao público por meio do MR. Isso deve significar que mais conteúdo pode alcançar e atender a uma variedade maior de pessoas, incluindo aquelas que não consideram a realidade virtual ou a realidade aumentada tradicionais relevantes para suas habilidades, conforto, gosto ou orçamento.

Captura de realidade mista (também conhecida como elenco misto)

Definição:

Um termo e uma abordagem predominantemente apresentados e facilitados pela Oculus, a captura de realidade mista dá a uma pessoa fora de uma experiência de realidade virtual uma impressão de como é dentro desse conteúdo. A abordagem, conforme descrita pela Oculus, permite que os desenvolvedores “criem vídeos e outros conteúdos que mesclam imagens ao vivo de pessoas usando o Rift e o Touch no mundo real com imagens do jogo de aplicativos de VR”.

A oportunidade:

A captura de realidade mista fornece um meio cativante para compartilhar, comercializar, promover e comunicar experiências de VR.

Latência de movimento para fóton

Definição:

A latência de movimento para fóton é a medida do tempo entre o momento em que o movimento real ocorre no mundo real e o momento em que o olho recebe um fóton da tela do HMD que reflete essa mudança. Graças às velocidades extremamente altas e às distâncias bastante curtas, é muito difícil de medir, mas representa a eficácia total de um sistema de VR do ponto de vista da latência. Usuários leigos às vezes descrevem esse fenômeno sob os mesmos termos de “atraso”.

A oportunidade:

Uma alta taxa de quadros renderiza movimentos suaves e evita o aparecimento de estroboscópios, o que pode contribuir para o enjôo. No entanto, a causa subjacente do desconforto na realidade virtual é a discrepância entre o movimento do mundo real e a percepção visual. Nesse caso, o computador pode estar renderizando quadros muito rapidamente, mas se os dados de rastreamento estiverem atrasados ou se os quadros precisarem ser codificados e transmitidos, a alta latência de movimento para fóton ainda causará enjôo. Atualmente, esse problema torna difícil ou impossível fazer VR com renderização baseada em nuvem.

Monitoramento de movimento

Definição:

O rastreamento de movimento é a capacidade de rastrear e registrar o movimento de um usuário de VR e o movimento de objetos do mundo real, lendo-os como entradas e replicando esses movimentos em realidade virtual em tempo real.

A oportunidade:

O rastreamento de movimento é o que permite que os usuários de VR se movimentem em um ambiente da mesma forma que fariam na realidade. Quando você se inclina para ver algo em um mundo virtual, você se aproxima desse objeto; assim como faria na vida real. O rastreamento de movimento é um dos componentes mais importantes necessários para induzir seus sentidos a pensar que você está participando do ambiente virtual. Da mesma forma, agora oferece aos criadores de conteúdo um meio de criar e moldar conteúdo de VR a partir de VR.

Renderização estéreo em várias passagens

Definição:

Para que a realidade virtual ofereça aos usuários 3D estereoscópico, uma imagem diferente deve ser fornecida a cada olho. Isso significa renderizar duas imagens 3D distintas em um HMD. A renderização estéreo de passagem múltipla, no entanto, tem menos desempenho do que a renderização estéreo de passagem única e, portanto, limita a fidelidade visual ou a complexidade de possíveis cenas.

A oportunidade:

Para aqueles que criam ferramentas para criar jogos e outros conteúdos de VR, muito esforço deve ser feito para habilitar e suportar a renderização estéreo em várias passagens. Se você também é consumidor de VR, a renderização multipass pode ser o motivo pelo qual você pode precisar de uma plataforma tão poderosa para usar um HMD de realidade virtual.

Realidade virtual/realidade aumentada sem jogos

Definição:

Experiências de realidade virtual que incluem todo o conteúdo não relacionado a jogos, como aplicativos educacionais, software de treinamento médico, visualização arquitetônica, simulação militar, instalações promocionais, passeios em parques de diversões, usos no varejo e ferramentas criativas. Esses tipos de experiência estão começando a compor uma parte significativa do conteúdo de VR produzido atualmente.

A oportunidade:

Boas notícias. Quanto mais indústrias e setores adotarem a realidade virtual, mais o ecossistema da realidade virtual poderá crescer. Isso significa mais ferramentas, mais investimento e mais talento, o que é fantástico, seja você um criador de realidade virtual ou um consumidor.

Pipeline de transformação OpenGL

Definição:

A transformação do OpenGL ocorre no pipeline do OpenGL e, ao fazer isso, oferece o mesmo processo fundamental dos pipelines gerais de transformação gráfica, especificamente para a API gráfica multilíngue e multiplataforma. As matrizes OpenGL são usadas, de forma semelhante à observada nas matrizes personalizadas do Direct3D Transformation Pipeline.

A oportunidade:

Para aqueles familiarizados com a API OpenGL, um pipeline de transformação gráfica personalizado está disponível.

SDK/API do OpenVR

Definição:

Um SDK e uma API criados pela Valve especificamente para apoiar o desenvolvimento do SteamVR/HTC Vive e fones de ouvido VR similares. Por outro lado, a iniciativa OpenXR é um grupo de trabalho mais amplo que busca estabelecer padrões gerais para apoiar a criação e distribuição de conteúdo, ferramentas e hardware de VR e AR.

A oportunidade:

Um meio de criar conteúdo para uma das plataformas mais prolíficas e populares da geração atual de VR.

OpenXR

Definição:

Uma iniciativa para criar um padrão aberto para aplicativos e dispositivos de VR e AR e eliminar a fragmentação do setor. Veja também: OpenVR SDK/API.

A oportunidade:

Um ecossistema mais robusto, confiável e avançado para criar conteúdo de VR e AR.

Vídeo panorâmico 2D/3D

Definição:

Como acontece com muitos termos no espaço emergente de VR e AR, os vídeos panorâmicos em 2D e 3D cobrem um espectro relativamente amplo. Eles geralmente definem o conteúdo de vídeo que envolve inteiramente o usuário, seja como uma faixa de 360 graus na altura dos olhos ou como uma esfera inteira. Em termos gerais, o termo inclui vídeos em 360 graus visualizados em um contexto de VR HMD, mas também instalações baseadas em tela em locais como parques de diversões. Atualmente, a maior parte do conteúdo de vídeo 360 de ação ao vivo é uma imagem 2D, embora com o equipamento certo — e o orçamento — um vídeo 3D panorâmico verdadeiramente estereoscópico seja perfeitamente possível.

A oportunidade:

Além das oportunidades que o vídeo 360 oferece, o vídeo panorâmico oferece a outros criadores de conteúdo — desenvolvedores de jogos e profissionais de marketing — um meio de reduzir a complexidade da cena ao incluir o vídeo como plano de fundo pré-renderizado no lugar da geometria real. Mecanismos 3D como o Unity oferecem suporte integrado para esse tipo de conteúdo de vídeo.

Rastreamento posicional

Definição:

O rastreamento posicional é a capacidade de registrar o movimento do usuário e o movimento de objetos em tempo real. Isso significa que os usuários podem se movimentar na realidade e ter esses movimentos reproduzidos como interações em um determinado mundo virtual.

Embora o rastreamento posicional, como termo, aborde áreas semelhantes às definidas pelo rastreamento da cabeça e do olhar, ele abrange HMDs, controladores, adereços e outros objetos do mundo real, incluindo aqueles vistos em verdadeiras experiências de realidade mista.

A oportunidade:

Em um nível básico, a relativa sutileza do rastreamento posicional afeta a capacidade de uma experiência de VR de ser convincente e envolvente. Além disso, o potencial de expansão dos tipos de objetos e entradas que podem ser rastreados posicionalmente está ampliando significativamente o espectro de experiências que a realidade virtual pode oferecer.

Post FX para VR (ou pilha de pós-processamento)

Definição:

O Post FX for VR oferece a aplicação de vários efeitos visuais aplicados após a criação de uma cena. Uma pilha de pós-processamento combina um conjunto completo de efeitos de imagem em um único pipeline de pós-processamento, permitindo que os efeitos cinematográficos sejam aplicados de forma direta e eficiente e na ordem correta em uma única passagem.

A oportunidade:

Abordagens como a vista com a pilha de pós-processamento fornecem uma maneira simples e relativamente rápida de enfeitar os mundos de VR com um grau extra de nuances e detalhes, tornando-os mais convincentes.

Presença (ou sensação de presença)

Definição:

A sensação de estar em algum lugar, seja na realidade ou em uma realidade virtual. Na realidade, uma pessoa presente pode ser particularmente consciente e socialmente interativa. Em VR, o termo se aplica à experiência de acreditar que você ocupa o mundo virtual. Sem dúvida, também podemos ser entendidos como “presentes” em um livro ou filme quando esquecemos que o mundo real existe e que a ficção é realidade. A realidade virtual oferece uma sensação de presença incomparável com quase qualquer outro meio ou forma.

A oportunidade:

A presença é sem dúvida a força fundamental da VR e uma ferramenta vital para alcançar a imersão do jogador. A geração de presença vem das muitas técnicas usadas para criar realidade virtual de qualidade, mas talvez a regra mais importante seja que “qualquer coisa que lembre ao usuário que ele está em uma experiência de realidade virtual — em vez de uma realidade — contrariará a presença”. Isso significa que um menu incongruente ou um momento de atraso podem prejudicar a presença em um instante.

Render Loop (também conhecido como Render Pipeline)

Definição:

Um loop de renderização fornece a arquitetura lógica que determina como um quadro renderizado é composto. Normalmente, um loop de renderização pode ter a seguinte estrutura e ordem, por exemplo:

Seleção > Sombras > Opaco > Transparente > Pós-processamento > Presente

Enquanto um loop de renderização é o conjunto de etapas pelas quais o mecanismo 3D passa para compor uma cena, o pipeline de transformação gráfica é o conjunto de etapas para transformar um objeto de seu próprio espaço em espaço físico na tela.

A oportunidade:

Para VR, duas imagens distintas devem ser renderizadas para cada olho. Embora seja viável executar dois loops de renderização, é extremamente exigente em recursos de CPU e GPU. No entanto, o desenvolvimento de técnicas como a renderização estéreo de passagem única do Unity torna os loops de renderização que suportam conteúdo de VR muito mais eficientes, liberando GPU e CPU para outras tarefas.

Destino de renderização (incluindo matriz de destino de renderização)

Definição:

Um destino de renderização é um buffer de memória que serve efetivamente como um local para desenhar, permitindo que objetos apareçam no fone de ouvido do usuário final. Uma matriz de destinos de renderização permite a saída para vários destinos de renderização simultaneamente.

A oportunidade:

Os Render Targets são uma convenção estabelecida de jogos e desenvolvimento relacionado e fornecem uma capacidade útil de renderizar objetos fora da tela.

Textura renderizada

Definição:

As texturas de renderização são tipos exclusivos de texturas que são criadas e atualizadas em tempo de execução. Você pode criar uma nova textura de renderização antes de designar uma de suas câmeras para renderizar nela.

A oportunidade:

As texturas de renderização podem ser usadas em um material dentro de um motor de jogo, trazendo as vantagens do tempo de execução.

Gráfico de cena

Definição:

Os gráficos de cena são estruturas de dados especializadas que organizam as informações necessárias para renderizar uma cena. O gráfico da cena é consumido e compreendido pelo renderizador. O gráfico da cena pode se referir à cena em sua totalidade ou à parte visível para a vista. No último contexto, o termo “gráfico de cenas selecionadas” é usado.

A oportunidade:

Mundos de VR bem ordenados são eficientes e confiáveis, ao mesmo tempo em que impõem demandas computacionais mínimas a um sistema por meio de posicionamento e dimensionamento eficientes de objetos em uma cena.

Resolução da tela

Definição:

A resolução da tela se refere ao número de pixels exibidos na tela. Assim como um monitor de computador ou uma televisão, quanto mais pixels estiverem presentes, mais clara e realista será a qualidade da imagem. No entanto, no caso da resolução da tela de um fone de ouvido VR, como a imagem está a apenas alguns centímetros de distância de seus olhos, é necessária uma resolução de tela maior para que os usuários não percebam as lacunas entre os pixels individuais. Além disso, no caso dos fones de ouvido VR, a tela é dividida ao meio para mostrar uma imagem com precisão para cada olho.

A oportunidade:

Como desenvolvedor ou consumidor, ao procurar um fone de ouvido VR de nível médio ou alto, procure uma resolução de tela com um mínimo de 2160 por 1200 (ou 1080 por 1200 por olho). Qualquer coisa mais baixa e você poderá notar o que é chamado de “efeito de porta de tela”, que parece que você está olhando por uma porta de tela; em outras palavras, você pode ver os pequenos pontos ou linhas pretas na tela.

Renderização estéreo de passagem única

Definição:

A renderização estéreo de passagem única é um recurso que renderiza as duas imagens dos olhos ao mesmo tempo em uma textura de renderização compacta, o que significa que toda a cena é renderizada apenas uma vez e o tempo de processamento da CPU é reduzido significativamente.

Com a renderização estéreo de passagem única ou a instância estéreo ativadas, um mecanismo 3D como o Unity compartilha dados de seleção — se um objeto 3D deve ou não ser renderizado com base na visibilidade da câmera — e dados de sombra entre os olhos. Portanto, para cada objeto visível, precisamos renderizar o objeto apenas uma vez, o que pode resultar em aumentos de velocidade consideráveis e, ao mesmo tempo, oferecer um desempenho robusto.

A diferença entre a renderização de passagem única e a instância estéreo é que a última tem ainda mais desempenho, mas requer suporte de hardware. Sem esse recurso, o mecanismo 3D renderiza a cena duas vezes: primeiro para renderizar a imagem do olho esquerdo e depois novamente para a imagem do olho direito.

A partir do Unity 2017.3, todas as plataformas suportadas têm Single Pass Stereo e, quando disponível, Single Pass Instancing.

A oportunidade:

Com a redução das demandas que os loops de renderização tradicionais impõem ao tempo de processamento da CPU, você tem mais com que trabalhar em outros lugares do seu projeto de VR.

Seis graus de liberdade (6DOF)

Definição:

Um sistema que fornece seis graus de liberdade rastreia a posição e a rotação de um objeto em três dimensões. Os três eixos posicionais combinados com os três eixos rotacionais totalizam seis “graus” que podem ser controlados livremente.

A oportunidade:

Há uma diferença significativa entre o que você pode fazer com o rastreamento rotacional 3DOF e o rastreamento 6DOF completo. Como exemplo, o controle original do Wii rastreava apenas a rotação, o que forçou os desenvolvedores de jogos a usar “metáforas” de controle para coisas como jogar uma bola ou balançar uma raquete de tênis. Por outro lado, os controladores HTC Vive e Oculus Touch podem ser controlados com precisão no espaço, dando aos usuários uma noção de onde estão suas mãos, oferecendo mais nuances e permitindo a presença.

SLAM (localização e mapeamento simultâneos)

Definição:

A localização e o mapeamento simultâneos são o processo pelo qual um mapa é gerado e atualizado por um agente — talvez um veículo — que se move por esse espaço, ao mesmo tempo em que esse agente é rastreado no espaço. Atualmente, existem muitas abordagens distintas, e a tecnologia está emergindo como crucial para carros autônomos, robôs domésticos e aplicações de AR.

A oportunidade:

Estabelecer as tecnologias SLAM e os algoritmos que as alimentam tem um grande potencial para influenciar a evolução da AR, oferecendo um meio para várias aplicações práticas, bem como em jogos e outras formas de entretenimento.

Áudio espacial (ou áudio 3D)

Definição:

O áudio espacial fornece um método para criar e posicionar recursos de áudio para que, da perspectiva do usuário de VR, um determinado som se origine de uma posição específica em uma cena 3D. É como o som surround em um home theater ou no cinema, e é muito importante para a presença e a imersão em VR.

A oportunidade:

O som é um dos componentes essenciais para criar uma experiência de realidade virtual imersiva. O som espacial permite que você ouça o som ao seu redor e também rastreia o som quando você move a cabeça, como na vida real. Isso significa que um desenvolvedor de VR pode, além de oferecer mais realismo, usar o som para dirigir ou guiar um jogador, bem como para uma mecânica mais inovadora, distinta da VR.

Estereoscopia

Definição:

A reprodução dos efeitos da visão binocular por meios fotográficos ou outros meios gráficos. Em outras palavras, recriar a experiência que os humanos obtêm ao ver o mundo real com dois olhos. Normalmente, as abordagens estereoscópicas fornecem duas imagens distintas da mesma cena: uma para o olho esquerdo do usuário e outra para o olho direito. Isso aconteceria, por exemplo, pelas lentes esquerda e direita de um HMD. O cérebro do usuário então combina as duas imagens para criar uma cena 3D com profundidade e perspectiva, assim como é o caso do que nossos olhos esquerdo e direito veem — e como essas imagens são compiladas — na realidade.

A oportunidade:

Conteúdo de VR que é mais envolvente, oferece mais presença e oferece uma experiência mais distinta daquela vista em telas planas tradicionais.

Instanciar estéreo

Definição:

Uma evolução da renderização de passagem única e a mais recente de várias abordagens de otimização de renderização que se esforçam para ajudar os desenvolvedores a garantir uma experiência mais suave em VR, onde os orçamentos da taxa de quadros são incrivelmente pequenos em comparação com as restrições do desenvolvimento tradicional de jogos.

A oportunidade:

Uma forma de os desenvolvedores economizarem o tempo de processamento da CPU e liberarem energia que podem usar em outros lugares.

Driver de pose rastreado

Definição:

Um componente de driver integrado e multiplataforma que simplifica a configuração do rastreamento dos movimentos e periféricos do jogador ao combinar a posição e a rotação de um dispositivo ou objeto do mundo real com sua pose — a localização do objeto virtual correspondente.

A oportunidade:

Oferecer um rastreamento convincente, realista e responsivo exige muito menos dos criadores. Para os jogadores, a imersão e a presença são significativamente suportadas.

acompanhamento

Definição:

O rastreamento é crucial para uma experiência de realidade virtual totalmente imersiva. Essencialmente, ao rastrear a posição do VR HMD — ou de um periférico, como um controlador especializado — esse método informa ao computador para onde o usuário está olhando e o que está fazendo, para que ele possa desenhar de forma precisa e adequada o mundo virtual ao seu redor. Quanto mais preciso for o rastreamento, mais confortável será a experiência de VR. Veja também: Rastreamento de movimento, rastreamento posicional e rastreamento de olhar.

A oportunidade:

Maneiras inovadoras de controlar um jogo e, mais uma vez, maior imersão e presença. O rastreamento de qualidade também fornece uma contramedida para doenças cibernéticas.

Vale da Estranheza

Definição:

Inicialmente cunhado pelo professor de robótica Masahiro Mori na década de 1970, o vale misterioso descreve um fenômeno que enquadra como os humanos se relacionam com objetos físicos ou digitais que assumem uma forma humana ou semelhante à humana. Quanto mais um objeto se parece com um humano, mais um ser humano real sentirá uma resposta positiva e engajada a esse objeto. No entanto, no momento em que um objeto quase parece um humano fotorrealista — mas não exatamente — há uma queda na resposta positiva do espectador. Essa queda — como pode ser vista em um gráfico de linhas simples — é o “vale” homônimo e pode ser sentida quando encontramos um robô ou personagem animado por computador assustador ou inquietante porque quase parece real, mas não é convincente.

Em muitos casos, uma forma humana física ou digital que não seja realista pode ser mais envolvente do que uma que seja quase totalmente convincente.

A oportunidade:

O efeito de vale misterioso em VR e outras formas de MX pode fazer muito para quebrar a imersão e a presença. Como resultado, os criadores de conteúdo geralmente optam por criar personagens humanos de baixa fidelidade em vez de personagens de alta fidelidade que buscam realismo para evitar uma resposta negativa dos espectadores.

Sistema vestibular

Definição:

Uma rede de canais no ouvido interno que servem efetivamente como detectores de movimento, permitindo equilibrar e entender nossos movimentos. Os conflitos dos sistemas visual e vestibular — ou “incompatibilidade vestibular” — estão no cerne do motivo pelo qual sentimos enjôo cibernético e enjôo.

A oportunidade:

O sistema vestibular é tão fundamental para a forma como interpretamos o conteúdo de VR, AR e MR — e por que ele pode prosperar ou falhar — que um entendimento básico ajudará você a criar um conteúdo melhor que ofereça aos usuários uma experiência de imersão mais convincente.

Realidade virtual

Definição:

À medida que a realidade virtual evoluiu e encontrou diferentes usos em diferentes setores, surgiram várias definições diferentes, muitas das quais se sobrepõem significativamente umas às outras. Existem discrepâncias. Os seguintes elementos, no entanto, são quase universais no enquadramento do que a VR oferece:

  • Visuais estéreo gerados por computador que envolvem totalmente o usuário, substituindo totalmente o ambiente do mundo real ao seu redor. Muitos acreditam que essa definição exclui corretamente o vídeo 360 da verdadeira VR.
  • O conteúdo é consumido e experimentado a partir de uma perspectiva centrada no espectador.
  • A interação do usuário em tempo real no ambiente virtual é possível, seja por meio de interações detalhadas ou simplesmente pela possibilidade de dar uma olhada na experiência. Aqui, o elemento em tempo real significa que a resposta vem dentro de um intervalo de tempo específico para o aplicativo ou campo.

A oportunidade:

Um alto nível de imersão em VR é alcançado ao envolver seus dois sentidos mais proeminentes, visão e audição, usando um fone de ouvido e fones de ouvido VR. O fone de ouvido VR envolve o mundo virtual ou a experiência quase até o limite do seu campo de visão natural. Quando você olha em volta, você experimenta o ambiente da mesma forma que quando olha ao redor na vida real. Os fones de ouvido amplificam a experiência bloqueando o ruído ao seu redor e permitindo

você ouvirá os sons da experiência de VR. Quando você move a cabeça, os sons no ambiente de realidade virtual se movem ao seu redor como na vida real.

Mecanismos 3D como o Unity possibilitaram a criação e a entrega de conteúdo VR altamente sofisticado. Essas soluções tornam a criação de experiências de realidade virtual uma atividade muito mais acessível, o que significa que o método de exibição está se tornando mais comum. Isso significa que há uma oportunidade de dominar a criação de conteúdo de VR para engajar um público crescente.

Programação de realidade virtual/realidade aumentada

Definição:

A programação para VR e AR é comparável à programação para outros métodos de exibição e tipos de conteúdo mais tradicionais. C++ e C# são formas particularmente populares de programação para AR e VR, refletindo como as ferramentas de desenvolvimento estabelecidas se adaptaram à chegada de VR e AR, mantendo as convenções estabelecidas de codificação.

A oportunidade:

Suas habilidades de programação existentes — ou as de sua equipe — estão prontas para o desenvolvimento de VR e AR.

Vídeo volumétrico

Definição:

Uma limitação até mesmo do vídeo 3D 360 mais bonito é o desafio de permitir que o usuário se mova pelo mundo com arbítrio e liberdade. Até o momento, a maioria dos vídeos em 360 graus limita o usuário a adotar e seguir a posição original da câmera no momento em que ela foi usada para capturar o vídeo. O vídeo volumétrico se move para resolver essa limitação, capturando os dados volumétricos de um espaço que está sendo filmado e para cada quadro. Esses dados podem então ser usados para apresentar a cena como se fosse uma cena gráfica renderizada, o que significa que o usuário pode percorrer o vídeo.

A oportunidade:

Conteúdo de vídeo 360 estereoscópico de ação ao vivo no qual você pode se movimentar. Isso pode tornar reais algumas das previsões mais loucas sobre o que a realidade virtual poderá ser no futuro.

Instalação de VR

Definição:

As instalações de VR são experiências de realidade virtual específicas para um local ou site. Elas podem ser criações únicas — vistas em instalações de arte — ou duplicadas em vários locais, como parques de diversões. Eles são frequentemente usados como entidades de marketing. Por exemplo, promover um filme em uma ComicCon ou anunciar uma marca em um festival de música. Freqüentemente, nesse contexto, eles são apoiados por conjuntos físicos elaborados e efeitos físicos, como vento gerado ou pisos em movimento. Os varejistas também podem implementar instalações de VR temporárias ou permanentes no local, permitindo que os consumidores, por exemplo, testem a experiência de um carro novo não estocado no showroom.

A oportunidade:

As instalações de VR oferecem aos consumidores a chance de experimentar a realidade virtual de ponta sem investir em nenhum equipamento. Eles também oferecem uma oportunidade distinta para os criadores, à medida que mais marcas buscam empregar a realidade virtual como uma ferramenta de marketing.

WebAR

Definição:

Um padrão aberto que possibilita experimentar a realidade aumentada em um navegador, em vez de precisar baixar aplicativos. Comparável ao WebVR.

A oportunidade:

O WebAR deve ser particularmente importante para dispositivos móveis, onde os sites podem oferecer experiências de AR por meio de navegadores de smartphones e onde os desenvolvedores podem fornecer aplicativos web simples que oferecem conteúdo de AR. Isso deve democratizar significativamente a criação de conteúdo de AR e o acesso a ele para os usuários. Também pode fornecer uma capacidade de teste conveniente para desenvolvedores de AR.

WebVR

Definição:

Um padrão aberto que fornece um meio de experimentar a realidade virtual por meio de um navegador, em vez de precisar baixar aplicativos especializados primeiro.

A oportunidade:

VR usando apenas um fone de ouvido e um navegador da Web, em vez de apresentar o custo do hardware de computação de última geração. Isso resulta em VR mais acessível e em maiores públicos potenciais para criadores de conteúdo. Assim como no WebAR, esse método pode, em alguns casos, fornecer aos desenvolvedores uma opção de teste conveniente.

XR

Definição:

Experiências mediadas por tecnologia que combinam ambientes e realidades virtuais e reais. Aqui, o “X” pode ser visto como um espaço reservado para V (R), A (R) ou M (R), embora também represente uma qualidade/quantidade indefinida ou variável. O XR abrange o hardware, o software, os métodos e a experiência que tornam realidade virtual, realidade mista, realidade aumentada, realidade cinematográfica e outras. A maioria das definições de XR engloba plataformas e conteúdos nos quais o usuário pode transformar objetos digitais em realidade ou, inversamente, ver objetos físicos como presentes em uma cena digital.

As experiências de XR incluem aquelas em que os usuários geram novas formas de realidade trazendo objetos digitais para o mundo físico e aquelas que veem como trazer objetos do mundo físico para o mundo digital.

XR geralmente é usado como um termo genérico e é frequentemente usado como uma abreviatura casual para agrupar tecnologias como VR, AR e MR.

A oportunidade:

Explorar e entender o XR de forma ampla, em vez de se concentrar em ambientes específicos, deve permitir que os criadores permaneçam flexíveis e evoluam com os tipos de XR que surgem, em vez de se comprometerem com um único formulário.