Browsing by Author "Dias, Miguel Sales"
Now showing 1 - 9 of 9
Results Per Page
Sort Options
Item Crystal Ball, Virtual Gallery C reation System for Immersive Environments(The Eurographics Association, 2021) Almeida, Rui Nuno de; Dias, Miguel Sales; Mealha, Óscar and Madeira, Joaquim and Tércio, Daniel and Sousa Santos, BeatrizThis paper presents a concept and a tool suite for authoring, configuring, organizing and displaying 3D virtual galleries, depicting multimedia content, like art, picture, movie or any other kind of media, which are appropriate for large scale immersive virtual environment such as the CAVE™. A comparison was established by the authors with standard PC environments, while experimenting virtual environments produced by Crystal Ball, showing the superior experience obtained by an installation of the type of CAVE™ that ins operation at Lousal, south of Portugal.Item Elaboração de Conteúdos 3D para utilização na CaveHollowspace do Lousal(The Eurographics Association, 2021) Ponciano, Luís Miguel S; Dias, Miguel Sales; Mealha, Óscar and Madeira, Joaquim and Tércio, Daniel and Sousa Santos, BeatrizEste poster descreve as diversas etapas da elaboração de conteúdo 3D para utilização no ambiente de realidade virtual imersivo instalado no Centro de Ciência Viva do Lousal.Item Especificação de Interrogações para Recuperação 3D em Ambiente Imersivo(The Eurographics Association, 2020) Pascoal, Pedro; Mendes, Daniel; Ferreira, Alfredo; Dias, Miguel Sales; Dias, Paulo and Menezes, PauloO desenvolvimento de diversas ferramentas de modelação e captura de objetos 3D tem aumentado o volume de objetos 3D digitais acessíveis na internet. Consequentemente, a área de recuperação de modelos 3D tem sido cada vez mais explorada, como resposta aos desafios decorrentes de pesquisa destes objetos. Contudo, sistemas de pesquisa tradicionais não tiram partido de ambientes imersivos para pesquisar objetos 3D. Neste trabalho apresentamos um sistema de especificação de interrogações em ambiente imersivo, que permitisse uma interação mais natural. A interação com o sistema decorre em ambiente imersivo de realidade virtual, onde definem uma interrogação através de esboços 3D, para obter objetos semelhantes, recorrendo a mecanismos de pesquisa.Item Experiência de Realidade Virtual Imersiva no Ambiente CaveHollowspace do Lousal(The Eurographics Association, 2021) Bastos, Patrícia; Dias, Miguel Sales; Creissac Campos, José and Gonçalves, DanielEste artigo descreve o ambiente de realidade virtual imersiva CaveH, instalado no Centro de Ciência Viva do Lousal, focando-se nas suas componentes e na sua concretização. Descreve também o processo de desenvolvimento experimental de um conteúdo interactivo para esta plataforma, bem como a avaliação da usabilidade desse mesmo conteúdo, por comparação com uma experiência similar em realidade virtual não imersiva, mostrando-se a superioridade do ambiente imersivo, relativamente ao campo de visão, sensação de imersão, percepção 3D e síntese e distribuição de som.Item Galactica, a Digital Planetarium that explores the Solar System and the Milky Way(The Eurographics Association, 2020) D'Alpuim, Jorge; Dias, Miguel Sales; Goncalves, Alexandrino and Fernandes, Antonio Ramires and Rodrigues, NunoThis paper describes a new Digital Planetarium system that allows interactive visualization of astrophysical data and phenomena in an immersive virtual reality (VR) setting. Taking advantage of the Cave Hollowspace at Lousal infrastructure, we have created a large-scale immersive VR experience, by adopting its Openscenegraph (OSG) based VR middleware, as a basis for our development. Since our goal was to create an underlying system that could scale to arbitrary large astrophysical datasets, we have splitted our architecture in offline and runtime subsystems, where the former is responsible for parsing the available data sources into a SQL database, which will then be used by the runtime system to generate the entire VR scene graph environment, for the interactive user experience. Real-time computer graphics requirements lead us to adopt some visualization optimization techniques, namely, GPU calculation of textured billboards representing stars, view-frustum culling with octree organization of scene objects and object occlusion culling, to keep the user experience within the interactivity limits. We have built a storyboard (the ''Galatica'' storyboard), which describes and narrates a visual and aural user experience, while navigating through the Solar System and the Milky Way, and which was used to measure and evaluate the performance of our visualization acceleration algorithms. The system was tested with an available dataset of the complete Milky Way (including the solar system), featuring 100.639 textured billboards representing stars and additional 104.328 polygons, representing constellations and planets of the solar system. We have computed the frame rate, GPU traverse time, Cull traverse time and Draw traverse time for three visualization conditions: (A) using standard OSG view frustum culling technique; (B) using view frustum culling with and our octree organizing the scene's objects; (C) using view frustum culling with our octree organizing the scene's objects and our occlusion culling algorithm. We have generally concluded that our octree organization and octree plus object culling techniques out-performs the standard OSG view frustum culling, when around half or less than half of the dataset is in view of the virtual camera.Item Infrared Tracking System for Immersive Virtual Environments(The Eurographics Association, 2021) Gaspar, Filipe; Dias, Miguel Sales; Bastos, Rafael; Coelho, António and Cláudio, Ana PaulaIn this paper, we describe the theoretical foundations and engineering approach of an infrared-optical tracking system specially design for large scale immersive virtual environments (VE) or augmented reality (AR) settings. The system described is capable of tracking independent retro-reflective markers arranged in a 3D structure (artefact) in real time (25Hz), recovering all possible 6 Degrees of Freedom (DOF). These artefacts can be adjusted to the user's stereo glasses to track his/her pose while immersed in the VE or AR, or can be used as a 3D input device. The hardware configuration consists in 4 shutter-synchronized cameras attached with band-pass infrared filters and the artefacts are illuminated by infrared array-emitters. The system was specially designed to fit a room with sizes of 5.7m x 2.7m x 3.4 m, which match the dimensions of the CAVE-Hollowspace of Lousal where the system will be deployed. Pilot lab results have shown a latency of 40ms in tracking the pose of two artefacts with 4 infrared markers, achieving a frame-rate of 24.80 fps and showing a mean accuracy of 0.93mm/0.52º and a mean precision of 0.08mm/0.04º, respectively, in overall translation/rotation DOFs, fulfilling the system requirements initially defined.Item A Mobile Voice Search Client for European Portuguese(The Eurographics Association, 2020) B.Pascoal, Pedro; Baldewijns, Daan; Pinto, Fernando Miguel; Ribeiro, Manuel; Santos, José; Dias, Miguel Sales; Magalhães, Luís and Santos, BeatrizThe generalization of speech technology availability notably in simple mobility scenarios, such as searching the Internet using the user´s voice or 'voice search', has increased user awareness of the usefulness of this humancomputer interaction modality. In this paper, we present a mobile voice search client that accepts a generic spoken query and presents the search engine's result page using European Portuguese.Item Sistema de Realidade Aumentada para Apoio ao Projeto de Arquitetura(The Eurographics Association, 2020) Lopes, Mariana; Silva, Jorge; Dias, Miguel Sales; Eloy, Sara; Gaspar, Filipe; Miguel, Ricardo; Mendonça, Nuno; Goncalves, Alexandrino and Fernandes, Antonio Ramires and Rodrigues, NunoEm arquitetura, a maquete, seja para estudo ou para a comunicação da proposta de projeto, desempenha um papel fundamental como ferramenta nos processos criativos de planeamento e conceção de projetos. No entanto, existem por vezes dificuldades associadas a esta abordagem, como o sejam, o tempo gasto e os custos envolvidos na sua produção e modificação, sempre que é necessário prever o resultado de mudanças no projeto, ou quando se tentam ver os pormenores do interior do modelo, o que pode não ser viável. Com o objetivo de auxiliar os arquitetos a superar essas dificuldades, uma hipótese foi proposta, que aponta para o uso da tecnologia de visualização interativa num ambiente de realidade aumentada, onde um modelo virtual 3D do projeto de arquitetura, na mesma escala da maquete de estudo, pode ser visualizado por meio de um dispositivo do tipo tablet. A verificação da hipótese levou à criação de um protótipo, permitindo a visualização de modelos 3D digitais de edifícios e do seu ambiente circundante, usando realidade aumentada. A nossa abordagem de realidade aumentada baseada em visão, permite o seguimento de texturas, necessitando de uma marca visual planar (uma imagem normal), a qual funciona como um plano de referência para o registo e posicionamento do modelo 3D. O sistema oferece várias funcionalidades que facilitam a modificação e a visualização interativa do modelo 3D, como a oclusão de objetos ou o apoio de planos de corte interativos, para visualização mais minuciosa do interior, amplamente utilizados em arquitetura. Para enriquecer a experiência de visualização e interação com o modelo 3D, o sistema utiliza uma plataforma de computação móvel com ecrã tátil, permitindo uma interação baseada em toque. A usabilidade deste protótipo foi positivamente avaliada com um painel de 16 estudantes universitários e 4 arquitetos, utilizando uma metodologia baseada em tarefas.Item Tree on Mars, an Immersive Virtual Reality Experience(The Eurographics Association, 2021) Duarte, Paulo Ricardo; Dias, Miguel Sales; Mealha, Óscar and Madeira, Joaquim and Tércio, Daniel and Sousa Santos, BeatrizTree on Mars is an Immersive Reality project, with the following story: the viewer is an astronaut who travels to Mars aiming to examine a tree found in the center of a crater. The project is to be viewed in the CaveH platform located at Centro de Ciência Viva at Lousal, and was developed in the context of the 3D programming curriculum of the Masters of Informatics Engineering - Multimedia of ISCTE-IUL in Lisbon. By definition, a Cave is an Immersive Virtual Reality (VR) system, which projects stereoscopic images with real scale dimensions [1]. In the CaveH case, the set-up is of a parallelepiped form and each face is a planar projection image, where the 3D effect comes from its stereoscopic projection.The scenario of Mars has one base facing the tree, a spaceship, a rock and an Explore Mars Rover, as shown in Figure 1. In this poster we will highlight the tools and 3D authoring techniques appropriate for real-time 3D rendering, in large scale immersive virtual reality settings. We will illustrate the various stages of development and the achieved results.