Помощь в написании студенческих работ
Антистрессовый сервис

Методы интерактивной визуализации и обработки трехмерных данных на основе изображений

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

Представлением (representation) трехмерных данных будем называть класс (тип) цифровых трехмерных моделей, обладающих схожими признаками (структурой данных, свойствами и т. п.). Наиболее распространенным представлением трехмерных данных, используемым в интерактивной трехмерной графике, является граничное полигональное (polygonal) представление. Такое представление задает кусочно-линейную… Читать ещё >

Методы интерактивной визуализации и обработки трехмерных данных на основе изображений (реферат, курсовая, диплом, контрольная)

Содержание

  • Глава 1. Методы представления и экранизации трехмерных данных с помощью изображений
    • 1. 1. Общие понятия и определения
      • 1. 1. 1. Традиционный процесс трехмерной экранизации
      • 1. 1. 2. Ручное моделирование
      • 1. 1. 3. Автоматическое моделирование с помощью методов машинного зрения
      • 1. 1. 4. Использование аппаратных дальномерных устройств
      • 1. 1. 5. Проблема сложности
      • 1. 1. 6. Представления и экранизация на основе изображений
    • 1. 2. Критерии сравнения алгоритмов представления и экранизации по изображениям
    • 1. 3. Основные классы методов представления и экранизации
    • 1. 4. Представления без соответствующей геометрии
    • 1. 5. Представления с неявной геометрией
    • 1. 6. Представления с дискретной геометрией
    • 1. 7. Представления с полигональной геометрией
    • 1. 8. Результаты анализа
  • Глава 2. Представление данных и моделирование на основе изображений с глубиной
    • 2. 1. Введение
    • 2. 2. Структура данных
      • 2. 2. 1. Карта цвета
      • 2. 2. 2. Карта глубины
      • 2. 2. 3. Карта нормалей
      • 2. 2. 4. Карты материалов
      • 2. 2. 5. Информация о соответствии проекций
      • 2. 2. 6. Свойства и способы получения данных в разработанном представлении
    • 2. 3. Форматы данных
      • 2. 3. 1. XML-запись представления
      • 2. 3. 2. Спецификация узла MPEG-4 AFX
    • 2. 4. Моделирование на основе изображений с глубиной
      • 2. 4. 1. Проблемы моделирования
      • 2. 4. 2. Построение карты рейтингов дискретов
      • 2. 4. 3. Удаление шума
      • 2. 4. 4. Удаление избыточности
      • 2. 4. 5. Улучшение степени сжатия
      • 2. 4. 6. Методы редактирования модели

3.2 Краткий обзор методов экранизации изображений с глубиной.78.

3.3 Предлагаемый многомасштабный метод экранизации.80.

3.3.1 Этап статической предобработки данных.81.

3.3.2 Этап динамической предобработки данных.84.

3.3.3 Этап экранизации данных.90.

3.4 Архитектура реализованной программной системы.98.

3.5 Заключение.102.

Глава 4 Клиент-серверная система удаленной экранизации на мобильных устройствах.104.

4.1 Введение.104.

4.2 Обзор существующих решений.106.

4.3 Предлагаемый метод решения задачи.109.

4.4 Серверная часть системы.111.

4.4.1 Информация, получаемая от клиента.111.

4.4.2 Предсказание положения наблюдателя.112.

4.4.3 Вычисление размера изображений.115.

4.4.4 Экранизация сцены и захват буферов цвета и глубины.117.

4.4.5 Сжатие изображений и передача по сети.117.

4.5 Клиентская часть системы.120.

4.5.1 Распаковка получаемых данных и запись в кэш.120.

4.5.2 Алгоритм выборки из кэша.121.

4.5.3 Алгоритм экранизации.124.

4.6 Программная реализация и результаты тестирования.131.

4.7 Заключение.133.

Результаты работы.135.

Приложение 1. Формат XML-записи представления на основе изображений с глубиной.136.

Литература

140.

Объект исследований и актуальность темы.

Одна из основных задач в области разработки человеко-машинных интерфейсов — это задача синтеза изображений трехмерных геометрических моделей. В настоящее время особую актуальность приобретают задачи, связанные с алгоритмами интерактивного синтеза изображений объектов реального мира [1]. Эти алгоритмы находят свое применение во многих прикладных областях, таких как автоматизированное проектирование, медицина, археология, мультимедийные, образовательные приложения, виртуальная реальность.

Процесс синтеза изображений трехмерной модели называется экранизацией (rendering). Устоявшийся процесс экранизации состоит из нескольких этапов: создание геометрической модели, моделирование материалов и условий освещения, синтез проекции модели для заданных параметров виртуальной камеры, растеризация геометрии, вычисление цвета пикселей выходного изображения с учетом модели освещения.

Для реальных объектов входными данными для создания модели как правило являются цифровые фотографии, видеопоследовательности или карты дальности (глубины), получаемые с помощью специальных дальномерных устройств, позволяющих вводить в компьютер данные о форме интересующего объекта.

Представлением (representation) трехмерных данных будем называть класс (тип) цифровых трехмерных моделей, обладающих схожими признаками (структурой данных, свойствами и т. п.). Наиболее распространенным представлением трехмерных данных, используемым в интерактивной трехмерной графике, является граничное полигональное (polygonal) представление. Такое представление задает кусочно-линейную аппроксимацию поверхности объекта.

Современные системы экранизации реальных объектов реконструируют из входных данных поверхность объекта, создают геометрию граничного представления и экранизируют уже его. Такая схема хорошо работает для синтетических, созданных вручную моделей и достаточно простых моделей освещения.

Однако для экранизации моделей объектов реального мира традиционный процесс недостаточно эффективен по следующим причинам:

• Для полигонального представления необходима полная реконструкция поверхности, провести которую автоматически для исходных данных в виде фотографий или видеопоследовательностей затруднительно или невозможно, а ручная реконструкция является чрезвычайно трудоемкой.

• Модели реального мира обычно имеют высокую детализацию и сложную форму, поэтому требуют огромного количества полигонов для качественной аппроксимации. Также проблемой является оптическая сложность — это сложность модели материала и освещения. На данный момент используемые в интерактивной экранизации модели материалов и освещения достаточно просты и зачастую не передают свойств реальной поверхности. Использование более сложных моделей ограничено требованием интерактивности.

• В последнее время становится все более актуальной задача адаптации сложных данных для их экранизации на маломощных устройствах, например, наладонных компьютерах или мобильных телефонах. Для полигональных моделей решение этих задач связано с большими вычислительными затратами, что может быть неприемлемо для маломощных устройств.

Таким образом, чрезвычайно актуальной является задача исследования альтернативных представлений и методов экранизации, адаптированных под реальные данные.

В рамках диссертационной работы исследуется идея прямого использования входных данных о реальных объектах в качестве модели для экранизации. Поскольку на входе алгоритма экранизации находятся изображения объектов в том или ином виде, а на выходе алгоритм экранизации также генерирует изображение, прямое использование изображений в качестве модели, без построения промежуточного геометрического представления, может помочь преодолению недостатков традиционного графического процесса.

В диссертации анализируются трехмерные представления на основе изображений. Рассматривается задача адаптации данных в этих представлениях, показывается их эффективность для решения этой задачи.

Цели работы.

• Исследование представлений трехмерных объектов на основе изображений, алгоритмов их обработки и экранизации.

• Разработка универсального и гибкого формата трехмерных данных на основе изображений, позволяющего эффективно хранить, передавать по сети и визуализировать дискретные трехмерные модели. Разработка алгоритмов обработки и синтеза изображений для этого формата данных.

• Исследование применимости представлений на основе изображений к задаче адаптации трехмерных данных для интерактивного показа на маломощных устройствах (карманные компьютеры, мобильные телефоны). Разработка эффективных методов показа трехмерных данных высокой сложности на маломощных устройствах.

Научная новизна работы.

• Предложено новое представление трехмерных данных на основе изображений, позволяющее эффективно хранить, передавать по сети и визуализировать дискретные трехмерные модели.

• Для предложенного представления разработан интерактивный многомасштабный алгоритм экранизации, обеспечивающий более высокую скорость экранизации по сравнению с известными алгоритмами.

• Разработана клиент-серверная система адаптивной экранизации (в том числе клиент для карманных ПК). Использование представлений на основе изображений позволило добиться интерактивной скорости работы в условиях низкой пропускной способности сети и при низких вычислительных мощностях клиентских устройств.

Практическая значимость и реализация.

Разработаны и доведены до реализации методы и алгоритмы решения актуальных задач компьютерной графики. Программные реализации описываемых в диссертации методов удовлетворяют требованиям и ограничениям, сформулированным в постановке задачи.

На основе предложенного представления трехмерных данных разработана спецификация формата данных, которая была одобрена в международный стандарт MPEG-4 AFX (Animated Framework Extension). Часть разработанных алгоритмов экранизации вошла в пакет стандартного программного обеспечения MPEG-4 AFX.

Разработана программная система Visual Framework, в рамках которой разрабатывались алгоритмы экранизации, а также клиент-серверная система поточной экранизации. Система предназначена для анализа различных методов представления и экранизации трехмерных данных. Компонентная архитектура системы позволяет добавлять новые форматы данных, представления и алгоритмы экранизации без изменения существующего кода. Система Visual Framework используется в учебном и научном процессе в лаборатории компьютерной графики и мультимедиа на факультете ВМиК МГУ для обучения методам экранизации по изображениям и разработки новых алгоритмов.

На основе разработанных методов и алгоритмов в рамках курса компьютерной графики, который читается на 2-м курсе факультета ВМиК МГУ, было подготовлено практическое задание для студентов [2].

Также было подготовлено учебное пособие по графической библиотеке OpenGL, которая использовалась для реализации разработанных алгоритмов.

3].

Апробация работы и публикации.

Результаты работы докладывались и обсуждались на:

• 13-й международной конференции по компьютерной графике и машинному зрению GraphiCon 2003, «A Framework for Depth Image-Based Modeling and Rendering» («Система для экранизации и моделирования на основе изображений с глубиной»), Россия, Москва, 2003.

• 14-й международной конференции по компьютерной графике и машинному зрению GraphiCon 2004, «A Real-Time 3D Rendering System with BRDF Materials and Natural Lighting» («Система интерактивной визуализации с поддержкой материалов с ДФОС и природным освещением»), Россия, Москва, 2004.

• Международной конференции по обработке изображений ЮР (International Conference on Image Processing), «Depth Image-based Representations for static and animated 3D objects» («Представление на основе изображений с глубиной для статических и анимированных трехмерных объектов»), США, Нью-Йорк, 2002.

• Семинаре по компьютерной графике и мультимедиа под руководством Ю. М. Баяковского (ф-т ВМиК МГУ).

• Научно-исследовательском семинаре по автоматизации программирования под руководством проф. М.Р.Шура-Бура.

Основные результаты работы изложены в 4-х научных публикациях [4, 5, 6, 7]. По тематике диссертации получено четыре международных патента.

Объем и структура работы.

Диссертация состоит из введения, четырех глав, заключения, списка литературы и приложения.

Результаты работы.

1. Предложено новое представление моделей трехмерных объектов на основе нескольких изображений с глубиной, позволяющее эффективно хранить, передавать по сети и визуализировать дискретные модели объектов.

2. Разработан алгоритм многомасштабной экранизации предложенного представления, обеспечивающий более высокую скорость экранизации по сравнению с известными алгоритмами.

3. Предложен алгоритм клиент-серверной экранизации потока трехмерных данных, ориентированный на мобильные клиентские устройства (включая карманные ПК) в условиях низкой пропускной способности сети.

4. На основе предложенных алгоритмов и разработанного представления моделей трехмерных объектов создана программная система их интерактивной обработки и визуализации.

Благодарности.

Автор выражает благодарность научному руководителю Ю. М. Баяковскому за содействие и помощь в работе, А. Конушину, А. Жиркову, Л.И. Левковичу-Маслюку за ценные консультации, идеи и плодотворные совместные обсуждения, способствовавшие реализации идеи диссертации, а также А. Дегтяревой, которая высказала массу ценных замечаний и предложений по тексту диссертации.

4.7 Заключение.

По результатам тестирования можно сделать следующие выводы: разработанная клиент-серверная система позволяет достигать интерактивной визуализации сложных моделей с интерактивными скоростями, причем интерактивность достигается за счет использования изображений с глубиной как представления данных для передачи по сети и визуализации на стороне клиента.

К преимуществам системы можно отнести возможность работы даже на узких каналах (5−6Kbps) и при существенной задержке передачи и приемлемую скорость экранизации (до 10 кадров в секунду независимо от сложности сцены). К недостаткам системы можно отнести невысокое качество получаемых изображений, что обусловлено применяемой схемой сжатия и значительным временем, которое требуется КПК на синтез изображения большого размера. Для улучшения качества экранизации в будущей работе планируется реализовать следующие возможности:

• Инкрементное кодирование передаваемых данных. Это позволит уменьшить объем данных, передаваемый клиенту, что позволит увеличить разрешение изображений и/или уменьшить степень сжатия карт цвета.

• Передача клиенту полноразмерных изображений без сжатия (или с небольшим сжатием) во время остановки навигации и адаптивное изменение разрешения передаваемых изображений в зависимости от скорости навигации (скорость выше — размер меньше, следовательно, обновления чаще).

Показать весь текст

Список литературы

  1. Foley, J. and et al, Getting There: The Ten Top Problems Left. 1. EE Computer Graphics and Application, 2000. 20(1): p. 66−68.
  2. Практическое задание для студентов по экранизации на основе изображений. http://graphics.cs.msu.su/courses/cg02b/assigns/hw-6/hw6.html.
  3. Баяковский, 10., А. Игнатенко, and А. Фролов, Графическая библиотека OpenGL. 2003, Москва: Издательский отдел факультета Вычислительной Математики и Кибернетики МГУ им. М. В. Ломоносова. 132.
  4. Bayakovski, Y., et al., Depth Image-based Representations and Compression for Static and Animated 3D Objects. IEEE Transactions on Circuits & Systems in Videotechnology. Special Issue on MPEG-4, 2004: p. 10 321 045.
  5. Ignatenko, A., B. Barladian, K. Dmitriev, S. Ershov, V. Galaktionov, I. Valiev, and A. Voloboy. A Real-Time 3D Rendering System with BRDF Materials and Natural Lighting. Procedings of Graphicon-2004. p. 159−162. 2004. Moscow, Russia.
  6. Y Bayakovski, et al. Depth Image-based Representations for static and animated 3D objects. Procedings of ICIP-2002. p. 25−28. 2002.
  7. Игнатенко, A. and А. Коиушин. Система для экранизации и моделирования на основе изображений с глубиной. Procedings of Графикон-2003. р. 169−172. 2003. Москва, Россия.
  8. Borshukov, G.D., New Algorithms for Modeling and Rendering Architecture from Photographs. M. S Thesis, EECS department, UC Berkeley, 1997.
  9. Cipolla, R., D. Robertson, and E. Boyer. Photobuilder 3D Models of Architectural Scenes from Uncalibrated Images. Procedings of Conference on Multimedia Computing and Systems, p. 25−31. 1999.
  10. Horry, Y., K.I. Anjyo, and K. Arai. Tour into the picture: Using a spidery mesh interface to make animation from a single image. Procedings of SIGGRAPH1997. p. 225−232. 1997.
  11. K.Turkowski., Y.X.a., Creating image-basedVRusing a self calibrating fish-eye lens. In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'97), pages 237−243, San Juan, Puerto Rico, June 1997.
  12. Kang, S.B. and R. Szeliski. 3-D scene data recovery using omnidirectional multibaseline stereo. Procedings of EEE Computer Society Conference on Computer Vision and Pattern Recognition p. 364−370. 1996. San Francisco, California.
  13. Kutulakos, K. and S. Seitz, A Theory of Shape by Space Carving. International Journal of Computer Vision, 2000. 38(3): p. 197−216.
  14. Scharstein., D., Stereo vision for view synthesis. In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'96), pages 852−857, San Francisco, California, June 1996.
  15. Seitz, S.a.C.D. Photorealistic Scene Reconstruction by Voxel Coloring. Procedings of Computer Vision and Pattern Recognition Conference, p. 10 671 073. 1997.
  16. Taylor, C., P. Debevec, and J. Malik. Reconstructing Polyhedral Models of Architectural Scenes from Photographs. Procedings of.
  17. Trucco, E. and A. Verri, Introductory Techniques for 3-D Computer Vision. 1998, New Jersey: Prentice Hall.
  18. PhotoModeler. cited 2005 August.- Available from: http://www.PhotoModeler.com.
  19. Canoma., http://vww.canoma.com (July 2002).
  20. , D., Л. Criminisi, and A. Zisserman. Creating Architectural Models from Images. Procedings of Eurographics 1999, Computer Graphics Forum, p. 39−50. 1999.
  21. Lengyel., J., The convergence of graphics and vision. Technical report, IEEE Computer, July 1998.
  22. Cyberware, Inc. cited 2005 August.- Available from: www.cyberware.com.
  23. Kang, S.B., A survey of image-based rendering techniques. VideoMetrics, SPIE, 1999. 3641: p. 2−16.
  24. Kang, S.B., R. Szeliski, and P. Anandan. The geometry-image representation tradeoff for rendering. Procedings of nternational Conference on Image Processing. 2000. Vancouver, Canada.
  25. Rademacher., P. View-dependent geometry. Procedings of SIGGRAPH. p. 439−446. 1999.
  26. Oliveira, M.M., Relief Texture Mapping. Ph.D. Dissertation. UNC Computer Science Technical Report TR00−009, University of North Carolina, March 3, 2000.
  27. Oliveira, M.M. and G. Bishop. Image-Based Objects. Procedings of ACM Symposium on Interactive 3D Graphics, p. 191−198. 1999.
  28. Shade, J. and et al. Layered Depth Images. Procedings of SIGGRAPH 1998. p. 231−242.
  29. Chang, C.-F., G. Bishop, and A. Lastra. LDI Tree: A Hierarchical Representation for Image-Based Rendering. Procedings of SIGGRAPH 1999. p. 291 298. 1999.
  30. Adelson, E. and J. Bergen, The Plenoptic Function and the Elements of Early Vision. Computational Models of Visual Processing. 1991: MIT Press, Cambrige, MA. 3−20.
  31. Lippman, A. Movie-Maps: An Application of the Optical Videodisc to Computer Graphics. Procedings of SIGGRAPH1980. p. 32−43. 1980.
  32. Kang, S.B. and P.K. Desikan. Virtual navigation of complex scenes using clusters of cylindrical panoramic images. Procedings of Graphics Interface. p. 223−232. 1998. Vancouver, Canada.
  33. McMillan, L. and G. Bishop. Plenoptic modeling: An image-based rendering system. Procedings of SIGGRAPH'95. p. 39−46. 1995.
  34. Peleg, S. and M. Ben-Ezra. Stereo panorama with a single camera. Procedings of Computer Vision and Pattern Recognition. 1999.
  35. Zheng, J.Y. and S. Tsuji. Panoramic representation of scenes for route understanding. Procedings of 10th Int. Conf. Pattern Recognition, p. 161−167. 1990.
  36. Globuscope Panoramic Camera. http://www. everent. com/globus/'. cited 2005 August.,
  37. Roundshot 220VR. cited 2005 August.- Available from: http://www.roundshot.com/cameras220VR.html
  38. Peleg, S. and J. Herman. Panoramic Mosaics by Manifold Projection. Procedings of Conference on Computer Vision and Pattern Recognition, p. 338−343. 1997.
  39. Shum, H.-Y. and L.-W. He. Rendering with Concentric Mosaics. Procedings of SIGGRAPH 1999. p. 299−306.
  40. Szeliski, R. and H.-Y. Shum. Creating full view panoramic image mosaics and texture-mapped models. Procedings of SIGGRAPH'97. p. 251−258. 1997.
  41. Szeliski., R., Video mosaics for virtual environments. IEEE Computer Graphics and Applications, 1996. 16(2): p. 22−30.
  42. LightPack: Light Field Authoring and Rendering Package. Stanford Computer Graphics Laboratory, cited 2005 October.- Available from: http://www-graphics.stanford.edu/software/lightpack/.
  43. Aliaga, D. and 1. Carlbom. Plenoptic Stitching: A Scalable Methodfor Reconstructing 3D Interactive Walkthroughs. Procedings of SIGGRAPH 2001. p. 443−450.2001.
  44. Gortler, S. and et al. The Lumigraph. Procedings of SIGGRAPH 1996. p. 43−54. 1996.
  45. Isaksen, A., L. McMillan, and S. Gortler, Dynamically reparameterized light fields. 1999, Technical Report MITLCS-TR-778.
  46. Levoy, M. and P. Hanrahan. Light Field Rendering. Proceedings. Procedings of SIGGRAPH 1996. p. 31−42. 1996.
  47. Sloan, P.P., M.F. Cohen, and S.J. Gortler. Time critical lumigraph rendering. Procedings of Symposium on Interactive 3D Graphics, p. 17−23. 1997. Providence, RI, USA.
  48. Wong, Т., P. Heng, S. Or, and W. Ng. Image-based rendering with controllable illumination. Procedings of Proceedings of the 8-th Eurographics Workshop on Rendering, p. 13−22. 1997. St. Etienne, France.
  49. Nalwa, V.S., A true omnidirecional viewer. 1996, Bell Laboratories, Holm-del, NJ, USA.
  50. Nayar, S. Catadioptric Omnidirectional Camera. Procedings of IEEE Computer Vision and Pattern Recognition, p. 482−488. 1997.
  51. Avidan, S. and A. Shashua. Novel view synthesis in tensor space. Procedings of Conference on Computer Vision and Pattern Recognition, p. 1034−1040. 1997. San Juan, Puerto Rico.
  52. Faugeras, O., Three-Dimensional Computer Vision: A Geometric Viewpoint. 1993, Cambridge, Massachusetts: MIT Press.
  53. Hartley, R. and A. Zisserman, Multiple View Geometry in Computer Vision. 2000: Cambridge University Press.
  54. Laveau, S. and O. Faugeras, 3-D scene representation as a collection of images and fundamental matrices. Technical Report 2205, INRJA-Sophia An-tipolis, 1994.
  55. Laveau, S. and O.D. Faugeras. 3-d scene representation as a collection of images.. Procedings of p. 689−691. 1994. Jerusalem, Israel: IEEE Computer Society Press.
  56. McMillan, L., An Image-Based Approach to Three-Dimensional Computer Graphics. Ph.D. Dissertation, UNC Computer Science.
  57. McAllister, D.K., L. Nyland, V. Popescu, A. Lastra, and C. McCue. Realtime rendering of real world environments. Procedings of Eurographics Workshop on Rendering. 1999. Granada, Spain.
  58. Nyland, L., A. Lastra, D. McAllister, V. Popescu, and C. McCue. Capturing, Processing and Rendering Real-World Scenes. Procedings of In Videomet-rics and Optical Methods for 3D Shape Measurement. 2001.
  59. Nyland, L., et al. The Impact of Dense Range Data on Computer Graphics. Procedings of IEEE Multi-View Modeling and Analysis Workshop, p. 23−26. 1999.
  60. Wang, J. and M.M. Oliveira, Improved Scene Reconstruction from Range Images. Computer Graphics Forum, 2002. 21(3).
  61. Mark, W.R., L. McMillan, and G. Bishop. Post-Rendering 3D Warping. Procedings of Symposium on Interactive 3D Graphics, p. 27−30. 1997. Providence, RI.
  62. Eyles, J., S. Molnar, J. Poulton, T. Greer, A. Lastra, N. England, and L. Westover. Pixel/low: The realization. Procedings of Siggraph/Eurographics Workshop on Graphics Hardware. 1997. Los Angeles, CA, Sug.
  63. Oliveira, M.M., G. Bishop, and D. McAllister. Relief Texture Mapping. Procedings of SIGGRAPH 2000. p. 359−368.
  64. Popescu, V., A. Lastra, D. Aliaga, and M. Oliveira. Efficient Warping for Architectural Walkthroughs Using Layered Depth Images. Procedings of IEEE Visualization'98. p. 211−215.
  65. OpenGL. http://www.opengl.org.
  66. Debevec, P., C. Taylor, and J. Malik. Modeling and Rendering Architecture from Photographs: A hybrid geometry- and image-based approach. Procedings of SIGGRAPH1996. p. 11−20. 1996.
  67. Debevec, P., Y. Yu, and G. Borshukov. Efficient view-dependent image-based rendering with projective texture-mapping,. Procedings of 9th Eurographics Workshop on Rendering, p. 105−116. 1998.
  68. Хорн, Б.К.П., Зрение роботов. 1989, Москва: Мир. 487.
  69. Chen, W.-C., R. Grzeszczuk, and J. Bouguet. Light-Field Mapping: Hardware Accelerated Visualization of Surface Light Fields. Procedings of SIGGRAPH 2002. p. 447−456.
  70. Wood, D. and et. al. Surface Light Fields for 3D Photography. Procedings of SIGGRAPH 2000. p. 287−296.
  71. Matusik, W., C. Buehler, R. Raslcar, S. Gortler, and L. McMillan. Image-Based Visual Hulls. Procedings of SIGGRAPH 2000. p. 369−374. 2000.
  72. Chai, J.-X., X. Tong, S.-C. Chan, and Ii.-Y. Shum. Plenoptic sampling. Procedings of SIGGRAPH'2000. 2000.
  73. Darsa, L., B. Costa, and A. Varshney, Walkthroughs of complex environments using image-based simplification.
  74. Renato Pajarola, M.S., Yu Meng, Depth-Mesh Objects: Fast Depth-Image Meshing and Warping.. UCI-ICS Technical Report No. 03−02 Department of Information & Computer Science University of California, Irvine, 2003. ,
  75. VRML Standard, cited 2005 October.- Available from: http://www.web3d.org.
  76. Blinn, J.F., Models of light reflection for computer synthesized pictures. Computer Graphics (SIGGRAPH 77), 1977. 11(2): p. 192−198.
  77. XML (Extensible Markup Language), cited 2005 October.- Available from: www. w3 .org/XML/.
  78. Krivanek, J., Representing and Rendering Surfaces with Points. 2003, Department of Computer Science and Engineering, Czech Technical University in Prague.
  79. Jackson, J.E., A User’s Guide to Principal Components. 1991: John Wiley and Sons, Inc.
  80. Rusinkiewicz, S. and M. Levoy. QSplat: A Multiresolution Point Rendering System for Large Meshes. Procedings of Siggraph 2000. p. 343−352. 2000: ACM Press / ACM SIGGRAPH / Addison Wesley Longman.
  81. Rakkolainen, I. and T. Vainio, A 3D City Info for Mobile Users.
  82. Mantiuk, R., K. Myszkowski, and S. Pattanaik, Attention Guided MPEG Compression for Computer Animations.
  83. Yoon, I. and U. Neumann, Compression of Computer Graphics Images with Image-Based Rendering.
  84. KILGARD, M., GLR, an OpenGL Render Server Facility. Silicon Graphics, Inc. (http://reality.sgi.com), 2002.
  85. Brachtl, M., J. Slajs, and P. Slav’ik, PDA Based Navigation System for a 3D Environment.
  86. Lamberti, F., C. Zunino, and A. Sanna, An Accelerated Remote Graphics Architecture for PDAs.
  87. STEGMAIER, S., M. MAGALLN, and T. AND ERTL, A Generic Solution for Hardware-Accelerated Remote Visualization. In Procceedings of EG/IEEE TCVG Symposium on Visualization VisSym '02., 2002.
  88. Biermann, H., A. Hertzmann, J. Meyer, and K. Perlin, Stateless Remote Environment Navigation with View Compression. 1999.
  89. Mark, W.R., G. Bishop, and L. McMillan, Post-Rendering Image Warping for Latency Compensation. 1996.
  90. , Д., А. Ратушняк, M. Смирнов, and В. Юкин, Методы сжатия данных. Устройство архиваторов, сэ/сатие изобраэ/сений и видео. 2002, Москва: ДИАЛОГ-МИФИ. 384.
  91. Irrlicht realtime engine, cited 2005 October .- Available from: http://irrlicht.sourceforge.net.
  92. Independent JPEG Group, cited 2005 October.- Available from: www.ijg.org.
Заполнить форму текущей работой