ARQUITETURA
Um sistema de realidade virtual é composto por três componentes essenciais: um ou mais ecrãs, um conjunto de sensores que detetam os movimentos e estimulam o utilizador, e um computador responsável por controlar toda a experiência. O desenvolvimento destas experiências inclui ainda a construção de mundos, contextos ou ambientes virtuais, modelados computacionalmente.
Na figura acima representada é possível observar a arquitetura de um sistema de VR a simular um contexto de condução. Neste, o utilizador é estimulado através de um capacete, ou HMD. O capacete está equipado com ecrãs estereoscópicos, colunas e sensores de movimento que controlam a orientação das imagens que lhe são apresentadas. Um conjunto de outros sensores (pedais e volante) permitem ao utilizador controlar e movimentar-se na simulação. Um computador é a peça central deste sistema, ao estar ligado a todos os componentes e ao computar toda a informação necessária à simulação.
CÂMARAS
Uma câmara VR oferece uma experiência de visualização envolvente, capturando uma visão de 360 graus de fotos e vídeos. Ao movimentar cabeça/ponteiro o vídeo move-se com o utilizador. Pode ainda ser incorporado um fone, que dependendo do software, pode fazer com que a imagem se mova para a direção apropriada.
Existem vários tipos de câmaras desde profissionais a amadoras. As que são usadas com uma finalidade mais profissional são omnidirecionais e/ou compostas por um grupo de pequenas câmaras, podendo gravar e tirar fotos de diferentes ângulos simultaneamente. Assim, é necessário que esta câmara esteja conectada a um software capaz de unir todas as fotografias numa imagem esférica e que analise a componente audiovisual de forma a sincronizar as diferentes fontes. As câmaras podem capturar imagens através de diferentes métodos
CAPTURA DE CAMPO DE LUZ
O princípio básico consiste em a câmara capturar o caminho dos raios de luz de vários pontos de vista, até um certo grau de liberdade. Adiciona um grau de volume rastreado posicionalmente da cena, e com o recurso à paralaxe horizontal e vertical dá a profundidade e perspetivas verdadeiras independentemente do ângulo de visão. Ou seja, a câmara captura, através de múltiplas microcâmaras nos seus sensores, vários caminhos de luz. Através de tecnologia computacional e do hardware, esta compacta os caminhos dos raios de luz numa matriz esférica densa que é composta pelos dados do campo de luz que cruzam a superfície da câmara e através de processos matemáticos o sistema reconstrói matematicamente um volume de campo de luz esférico. Este método é baseado num conceito simples denominado por campos leves. Conceito este que já foi definido em 1846 como sendo apenas toda a luz que passa por uma área ou volume.
CAPTURA VOLUMÉTRICA 3D
Na aplicação deste método é necessário que as câmaras sejam de alta definição, sendo que o objetivo é gravar um vídeo de uma pessoa real de vários pontos de vista. Em seguida, através do seu próprio software captura, analisa, comprime e recria em tempo real todos os pontos de vista de um ser humano 3D totalmente volumétrico. Este método pode também ser usado em RA
FOTOMETRIA
O princípio fundamental usado pela fotogrametria é a triangulação. São tiradas fotos de pelo menos dois locais diferentes, as chamadas "linhas de visão". Essas linhas de visão (por vezes chamadas de raios devido à sua natureza ótica) são cruzadas matematicamente para produzir as coordenadas tridimensionais dos pontos de interesse.
CODIFICADORES
Os codificadores mais utilizados na compressão de vídeos 360 graus para as diferentes plataformas são:
DESKTOP VR
O codec utilizado é o VP9, uma vez que, possui uma reprodutibilidade muito suave em computadores. É capaz de reduzir significativamente o tamanho dos ficheiros e mostrar cores nitidamente, especialmente cores mais escuras.
ANDROID H265
É um dos codificadores mais utilizados porque assegura uma boa qualidade de output e a reprodução é suave em dispositivos Android de última geração.
ANDROID VP9
É muito semelhante ao Android H265, mas usa o codec VP9 em vez do h.265/HEV. A qualidade e o tamanho dos ficheiros são idênticos, mas torna-se vantajoso, pois é visível em computadores.
CARDBOARD IOS
Apesar dos dispositivos iOS não terem sido feitos para a realidade virtual, porque não suportam os codecs mais avançados como VP9 ou h.265, apenas h.264/AVC, e a resolução máxima é 1080p a 30fps, este codificador é a melhor ferramenta para este sistema operativo.
HIGH QUALITY H265
Apesar da sua qualidade, ainda não é reproduzível em computadores ou telemóveis.
YOUTUBE
Supostamente suporta vídeos com resolução 8192×8192 para VR, contudo não é possível com o codec h.264/AVC, e não aceitando vídeos h.265/HEVC como input os vídeos devem ser codificados com o codec VP9. Não obstante, como o YouTube’s 360 metadata injector não aceita vídeos VP9, e esta é a única forma de ver os vídeos 360º no Youtube, o codec a utilizar deverá ser o h.264 sendo que a resolução máxima é 3840×2160.
Apenas suporta vídeos 360º monoscópicos
HEADJACK
É uma plataforma para criar e gerar conteúdo de vídeos de 360º. Permite criar uma aplicação de VR de forma intuitiva. O codec utilizado é h.265/HEVC sendo mais rápido a codificar do que o VP9.
SENSORES
Magnetómetro: componente eletrónico que mede campos magnéticos podendo operar como uma bússola, (detetando o norte magnético).
Acelerómetro: sensor usado para medir a aceleração própria do sistema.
Giroscópio: implementado em sistemas VR para obter a localização do usuário.
Sensores ultrassónicos: utilizado para obter a distância do utilizador a obstáculos através do Time-of-Fligh (ToF).
Microfones: geralmente um sensor cuja funcionalidade é de feedback, para que o utilizador possa interagir com o software ou até outros utilizadores.
Sensor de velocidade: serve para controlar a velocidade do utilizador, seja por excesso ou defeito.