Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/10464
Título: Um Pipeline Para Renderização Fotorrealística de Tempo Real com Ray Tracing para Realidade Aumentada
Autor(es): Melo, Diego Lemos de Almeida
Palavras-chave: Realidade Aumentada; Visualização; Renderização fotorrealística de tempo real; Ray Tracing; GPGPU; CUDA; RT²
Data do documento: 9-Mar-2012
Editor: Universidade Federal de Pernambuco
Citação: MELO, Diego Lemos de Almeida. Um pipeline para renderização fotorrealística de tempo real com ray tracing para a realidade aumentada. Recife, 2012. 99 f. Dissertação (mestrado) - UFPE, Centro de Centro de Informática, Programa de Pós-graduação em Ciência da Computação, 2012.
Resumo: A Realidade Aumentada é um campo de pesquisa que trata do estudo de técnicas para integrar informações virtuais com o mundo real. Algumas aplicações de Realidade Aumentada requerem fotorrealismo, onde os elementos virtuais são tão coerentemente inseridos na cena real que o usuário não consegue distinguir o virtual do real. Para a síntese de cenas 3D existem diversas técnicas, entre elas o ray tracing. Ele é um algoritmo baseado em conceitos básicos da Física Ótica, cuja principal característica é a alta qualidade visual a um custo computacional elevado, o que condicionava a sua utilização a aplicações offline. Contudo, com o avanço do poder computacional das GPUs este algoritmo passou a ser viável para ser utilizado em aplicações de tempo real, devido principalmente ao fato de ser um algoritmo com a característica de poder ser massivamente paralelizado. Levando isto em consideração, esta dissertação propõe um pipeline para renderização fotorrealística em tempo real utilizando a técnica ray tracing em aplicações de Realidade Aumentada. O ray tracer utilizado foi o Real Time Ray Tracer, ou RT2, de Santos et al., que serviu de base para a construção de um pipeline com suporte a sombreamento, síntese de diversos tipos de materiais, oclusão, reflexão, refração e alguns efeitos de câmera. Para que fosse possível obter um sistema que funciona a taxas interativas, todo o pipeline de renderização foi implementado em GPU, utilizando a linguagem CUDA, da NVIDIA. Outra contribuição importante deste trabalho é a integração deste pipeline com o dispositivo Kinect, da Microsoft, possibilitando a obtenção de informações reais da cena, em tempo real, eliminando assim a necessidade de se conhecer previamente os objetos pertencentes à cena real.
URI: https://repositorio.ufpe.br/handle/123456789/10464
Aparece na(s) coleção(ções):Dissertações de Mestrado - Ciência da Computação

Arquivos deste item:
Arquivo Descrição TamanhoFormato 
Dissertacao_completa_Diego_Lemos.pdf4,28 MBAdobe PDFVer/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons