Hypersim: датасет с разметкой изображений интерьеров от Apple

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Hypersim — это датасет с фотореалистичными синтетическими изображениями интерьеров. Для каждого изображения доступны попиксельная разметка объектов и геометрия сцены. Датасет состоит из 77.4 тысяч изображений 461 сцены. 

Набор Данных Hypersim

Для многих фундаментальных задач понимания сцены трудно или невозможно получить метки истинности на пиксель из реальных изображений. Мы решаем эту проблему, представляя Hypersim, фотореалистичный синтетический набор данных для целостного понимания внутренней сцены. Для создания нашего набора данных мы используем большое хранилище синтетических сцен, созданных профессиональными художниками, и генерируем 77 400 изображений 461 внутренней сцены с подробными метками на пиксель и соответствующей геометрией земной правды. Наш набор данных: (1) полагается исключительно на общедоступные 3D-активы; (2) включает полную геометрию сцены, информацию о материале и информацию о освещении для каждой сцены; (3) включает плотные сегментации семантических экземпляров на пиксель для каждого изображения; и (4) факторизует каждое изображение на диффузное отражение, диффузное освещение и недиффузионный остаточный термин, который захватывает зависящие от вида световые эффекты. Вместе эти особенности делают наш набор данных хорошо подходящим для геометрических задач обучения, требующих прямого 3D-наблюдения, многозадачных задач обучения, требующих совместного рассуждения над несколькими модальностями ввода и вывода, а также обратных задач рендеринга.

Набор данных Hypersim лицензируется в соответствии с лицензией Creative Commons Attribution-ShareAlike 3.0 Unported License.

Цитирование

Если вы находите набор данных Hypersim или инструментарий Hypersim полезными в ваших исследованиях, пожалуйста, процитируйте следующую статью:

@misc{roberts:2020,     author       = {Mike Roberts AND Nathan Paczan},     title        = {{Hypersim}: {A} Photorealistic Synthetic Dataset for Holistic Indoor Scene Understanding},     howpublished = {arXiv 2020}, } 

Загрузка набора данных Hypersim

Чтобы получить наш набор данных изображений, вы можете запустить следующий скрипт загрузки. В Windows вам нужно будет изменить сценарий, чтобы он не зависел от curlunzipутилит командной строки and.

python code/python/tools/dataset_download_images.py --downloads_dir /Volumes/portable_hard_drive/downloads --decompress_dir /Volumes/portable_hard_drive/evermotion_dataset/scenes 

Обратите внимание, что наш набор данных составляет примерно 1,9 ТБ. Мы разделили набор данных на несколько сотен отдельных ZIP-файлов, где каждый ZIP-файл занимает от 1 ГБ до 20 ГБ. Наш скрипт загрузки содержит URL-адреса для каждого ZIP-файла. Обратите также внимание, что мы вручную исключили изображения, содержащие людей и известные логотипы, из нашего публичного релиза, и поэтому наш публичный релиз содержит 74 619 изображений, а не 77 400 изображений. Мы перечисляем все изображения, которые мы вручную исключили hypersim/evermotion_dataset/analysis/metadata_images.csv.

Чтобы получить треугольные сетки ground truth для каждой сцены, вы должны приобрести файлы активов здесь.

Работа с набором данных Hypersim

Набор данных Hypersim состоит из набора синтетических сцен. Каждая сцена имеет имя формыai_VVV_NNN, где VVVнаходится номер тома, а NNNтакже номер сцены внутри Тома. Для каждой сцены существует одна или несколько траекторий камеры с именем {cam_00,cam_01,...}. каждая траектория камеры имеет одно или несколько изображений с именем {frame.0000, frame.0001, ...}. каждая сцена хранится в своем собственном ZIP-файле, и для каждой сцены доступны следующие модальности данных.

Изображения с высоким динамическим диапазоном без потерь

Изображения для каждой траектории камеры хранятся в виде файлов HDF5 с высоким динамическим диапазоном без потерь в следующих местах внутри каждого ZIP-файла:

ai_VVV_NNN/images/scene_cam_XX_final_hdf5                                      # contains data modalities that require accurate shading ai_VVV_NNN/images/scene_cam_XX_final_hdf5/frame.IIII.color.hdf5                # color image before any tonemapping has been applied ai_VVV_NNN/images/scene_cam_XX_final_hdf5/frame.IIII.diffuse_illumination.hdf5 # diffuse illumination ai_VVV_NNN/images/scene_cam_XX_final_hdf5/frame.IIII.diffuse_reflectance.hdf5  # diffuse reflectance (some authors refer to this modality as albedo) ai_VVV_NNN/images/scene_cam_XX_final_hdf5/frame.IIII.residual.hdf5             # non-diffuse residual  ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5                                   # contains data modalities that do not require accurate shading ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.depth_meters.hdf5      # Euclidean distance in meters from the surface sample at each pixel to the optical center of the camera ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.position.hdf5          # world-space positions in asset coordinates (not meters) ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.normal_cam.hdf5        # surface normals in camera space (ignores bump maps) ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.normal_world.hdf5      # surface normals in world space (ignores bump maps) ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.normal_bump_cam.hdf5.  # surface normals in camera space (takes bump maps into account) ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.normal_bump_world.hdf5 # surface normals in world space (takes bump maps into account) ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.render_entity_id.hdf5  # fine-grained segmentation where each render entity has a unique ID ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.semantic.hdf5          # semantic IDs using NYU40 labels ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.semantic_instance.hdf5 # semantic instance IDs ai_VVV_NNN/images/scene_cam_XX_geometry_hdf5/frame.IIII.tex_coord.hdf5         # texture coordinates 

Изображенияcolor, diffuse_illumination,diffuse_reflectance, и residualпридерживаются (с очень низкой ошибкой) следующего уравнения:

color == (diffuse_reflectance * diffuse_illumination) + residual 

Обратите внимание, что colorизображения,diffuse_illumination,diffuse_reflectance, и residualне имеют никакого тонального сопоставления, примененного к ним. Чтобы использовать эти изображения для последующих задач обучения, мы рекомендуем применить к ним ваш собственный оператор tonemapping. Мы реализуем простой оператор tonemapping in hypersim/code/python/tools/scene_generate_images_tonemap.py.

Предварительный просмотр изображений с потерями

Изображения предварительного просмотра с потерями, полезные для отладки, хранятся в следующих местах внутри каждого ZIP-файла:

ai_VVV_NNN/images/scene_cam_XX_final_preview    # contains preview images for data modalities that require accurate shading ai_VVV_NNN/images/scene_cam_XX_geometry_preview # contains preview images for data modalities that do not require accurate shading 

Траектории движения камеры

Каждая траектория движения камеры хранится в виде плотного списка поз камеры в следующем месте внутри каждого ZIP файла:

ai_VVV_NNN/_detail/cam_XX # each camera trajectory is stored in several HDF5 files (see scene_generate_images_bounding_box.py for details) 

Мы рекомендуем просмотреть hypersim/code/python/tools/scene_generate_images_bounding_box.pyих, чтобы понять наши соглашения о позах камеры. В этом файле мы создаем изображение, которое содержит 3D-ограничительные рамки для каждого объекта, наложенные поверх ранее отрисованного изображения. Этот процесс включает в себя загрузку ранее отрисованного изображения, загрузку соответствующей позы камеры для этого изображения, формирование соответствующей матрицы проекции и проецирование углов мирового пространства каждого ограничивающего прямоугольника в изображение.

3D ограничительные коробки

Мы включим 9-DOF ограничительные рамки для каждого семантического экземпляра в предстоящем выпуске.

Инструментарий Hypersim

Инструментарий Hypersim представляет собой набор инструментов для генерации фотореалистичных синтетических наборов данных из V-Ray сцен. Опираясь на V-Ray, наборы данных, созданные с помощью инструментария Hypersim, могут использовать передовые эффекты рендеринга (например, подвижный затвор, размытие движения и расфокусировки, хроматическая аберрация), а также богатый высококачественный 3D-контент с онлайн-рынков.

Инструментарий Hypersim состоит из инструментов, работающих на двух различных уровнях абстракции. Инструментарий низкого уровня Hypersim предназначен для работы с отдельными файлами сцен V-Ray. Инструментарий Высокого Уровня Hypersim занимается манипулированием коллекциями сцен. Вы можете использовать низкоуровневый инструментарий Hypersim для вывода богато аннотированных меток наземной правды, программного задания траекторий камер и пользовательских моделей искажений объектива, а также программной вставки геометрии в сцену. Вы можете использовать высокоуровневый инструментарий Hypersim для создания траекторий камер без столкновений, смещенных в сторону наиболее заметных частей сцены, и Интерактивного применения семантических меток к сценам.

Отказ от ответственности

Это программное обеспечение зависит от нескольких проектов с открытым исходным кодом. Некоторые из зависимых проектов имеют части, лицензированные под GPL, но это программное обеспечение не зависит от этих частей, лицензированных GPL. Лицензионные части GPL могут быть опущены из сборок этих зависимых проектов.

V-Ray Standalone и V-Ray AppSDK доступны здесь на своих собственных условиях . Авторы данного программного обеспечения не несут ответственности за содержание сторонних веб-сайтов.

Установка необходимых приложений, инструментов и библиотек

Быстрый старт для Anaconda Python

Если вы используете Anaconda, вы можете установить все необходимые библиотеки Python с помощью нашего requirements.txtфайла.

conda create --name hypersim-env --file requirements.txt conda activate hypersim-env 

Дополнительные библиотеки Python (см. ниже) могут быть установлены отдельно. Например,

pip install mayavi conda install -c conda-forge opencv conda install -c anaconda pillow 

Инструментарий Низкого Уровня Hypersim

  • Установите Python (мы рекомендуем Anaconda Python 3.7)
  • Установите следующие библиотеки Python: h5py, matplotlib, pandas,scikit-learn
  • Установите V-Ray Standalone и V-Ray AppSDK (версия Next Standalone, обновление 2.1 для x64 или более поздней версии; см. ниже)
  • Настройте инструменты Hypersim Python для вашей системы (см. ниже)

Инструментарий Высокого Уровня Hypersim

Дополнительные компоненты

Следующие компоненты являются необязательными, поэтому вам нужно установить эти предварительные условия только в том случае, если вы собираетесь использовать конкретный компонент.

  • Использование средств визуализации отладки Hypersim
  • Задание пользовательских непараметрических моделей искажений линз для рендеринга
    • Установите привязки OpenCV Python с включенной поддержкой OpenEXR
  • Использование инструмента аннотации сцен Hypersim
  • Вычисление ограничительных прямоугольников вокруг объектов
  • Генерация изображений ограничивающих прямоугольников, наложенных поверх отрисованных изображений

Установка V-Ray Standalone и V-Ray AppSDK

Убедитесьbin, что каталог из V-Ray Standalone находится в вашей PATHпеременной окружения. Также убедитесь, что binкаталог из V-Ray AppSDK находится в вашей DYLD_LIBRARY_PATHпеременной окружения. Например, я добавляю в свой ~/.bash_profileфайл следующее.

export PATH=$PATH:/Applications/ChaosGroup/V-Ray/Standalone_for_mavericks_x64/bin export DYLD_LIBRARY_PATH=$DYLD_LIBRARY_PATH:/Applications/ChaosGroup/V-Ray/AppSDK/bin 

Вручную скопируйте vray.soего из каталога AppSDK, чтобы он был виден вашему дистрибутиву Python.

Вручную скопируйте следующие файлы и подкаталоги из binкаталога AppSDK в этот hypersim/code/python/toolsкаталог. Например,

cp /Applications/ChaosGroup/V-Ray/AppSDK/bin/libcgauth.dylib          /Users/mike/code/github/hypersim/code/python/tools cp /Applications/ChaosGroup/V-Ray/AppSDK/bin/libvray.dylib            /Users/mike/code/github/hypersim/code/python/tools cp /Applications/ChaosGroup/V-Ray/AppSDK/bin/libvrayopenimageio.dylib /Users/mike/code/github/hypersim/code/python/tools cp /Applications/ChaosGroup/V-Ray/AppSDK/bin/libvrayosl.dylib         /Users/mike/code/github/hypersim/code/python/tools cp /Applications/ChaosGroup/V-Ray/AppSDK/bin/libVRaySDKLibrary.dylib  /Users/mike/code/github/hypersim/code/python/tools cp -a /Applications/ChaosGroup/V-Ray/AppSDK/bin/plugins               /Users/mike/code/github/hypersim/code/python/tools 

Вы можете проверить правильность установки V-Ray AppSDK, выполнив следующее средство командной строки.

python code/python/tools/check_vray_appsdk_install.py 

Если V-Ray AppSDK установлен правильно, этот инструмент распечатает следующее сообщение.

[HYPERSIM: CHECK_VRAY_APPSDK_INSTALL] The V-Ray AppSDK is configured correctly on your system. 

Настройка инструментов Hypersim Python для вашей системы

Вам необходимо переименовать hypersim/code/python/_system_config.py.example -> _system_config.pyи изменить пути, содержащиеся в этом файле для вашей системы.

Построение инструментов Hypersim C++

Вам необходимо переименовать hypersim/code/cpp/system_config.inc.example -> system_config.incи изменить пути, содержащиеся в этом файле для вашей системы. Затем вам нужно построить инструменты Hypersim C++. Самый простой способ сделать это-использовать файл makefile верхнего уровняhypersim/code/cpp/tools.

cd code/cpp/tools make 

Если вы собираетесь использовать инструмент аннотации сцены Hypersim, вам нужно построить его отдельно.

cd code/cpp/tools/scene_annotation_tool make 

Если вы собираетесь вычислять ограничительные рамки вокруг объектов, вам нужно построить следующий инструмент отдельно.

cd code/cpp/tools/generate_oriented_bounding_boxes make 

Использование инструментария Hypersim

Инструментарий низкого уровня Hypersim состоит из следующих инструментов командной строки Python.

  • hypersim/code/python/tools/generate_*.py
  • hypersim/code/python/tools/modify_vrscene_*.py

Инструментарий высокого уровня Hypersim состоит из следующих инструментов командной строки Python.

  • hypersim/code/python/tools/dataset_*.py
  • hypersim/code/python/tools/scene_*.py
  • hypersim/code/python/tools/visualize_*.py

Инструментарий высокого уровня Hypersim также включает исполняемый файл инструмента аннотаций сцен Hypersim, который находится в hypersim/code/cpp/binкаталоге и может быть запущен из командной строки следующим образом.

cd code/cpp/bin ./scene_annotation_tool 

В следующих примерах учебника демонстрируются функциональные возможности инструментария Hypersim.

  • 00_empty_scene В этом учебном примере мы используем низкоуровневый инструментарий Hypersim для добавления траектории камеры и набора текстурированных квадроциклов в сцену V-Ray.

  • 01_marketplace_dataset В этом учебном примере мы используем инструментарий высокого уровня Hypersim для экспорта и управления сценой, загруженной с рынка контента. Мы генерируем коллекцию богато аннотированных изображений наземной правды, основанных на случайном блуждании траектории камеры по сцене.

Генерация полного набора данных Hypersim

Мы рекомендуем завершить 00_empty_scene01_marketplace_datasetпримеры и учебник, прежде чем пытаться создать полный набор данных Hypersim.

Загрузка сцен

Для создания полного набора данных Hypersim мы используем Тома 1-55 Evermotion Archinteriors, исключая 20,25,40,49. Все тома Evermotion Archinteriors можно приобрести здесь.

Вам нужно создать downloadsкаталог и вручную загрузить в него архивы Evermotion Archinteriors RAR и 7z. Почти все архивы имеют четкие имена файлов, включающие номер тома и номер сцены, и не нуждаются в переименовании, чтобы избежать путаницы. Исключением из этого правила является Evermotion Archinteriors Volume 11, архивы которого называются {01.rar,02.rar,...}. вам необходимо вручную переименовать эти архивы в {AI11_01.rar,AI11_02.rar, ...} чтобы соответствовать конфигурационному файлу набора данных (_dataset_config.py), который мы предоставляем.

Запуск нашего конвейера на нескольких операционных системах

Некоторые из наших шагов конвейера требуют Windows, а другие требуют macOS или Linux. Поэтому желательно указать выходной каталог для различных этапов нашего конвейера, который будет виден обеим операционным системам. В идеале вы должны указать выходной каталог на быстром сетевом диске с большим количеством места для хранения. Однако наш конвейер генерирует много промежуточных данных, и дисковый ввод-вывод может стать значительным узким местом даже на относительно быстрых сетевых дисках. Поэтому мы рекомендуем быстрое и грязное решение для создания набора данных Hypersim на портативных жестких дисках, которые можно читать и записывать из Windows и macOS (или Linux).

Вы должны убедиться, что абсолютный путь к набору данных в Windows является согласованным (т. е. всегда имеет одну и ту же букву диска) при выполнении шагов нашего конвейера только для Windows. Мы рекомендуем отметить абсолютный путь Windows к набору данных, поскольку вам нужно будет предоставить его всякий раз, когда последующий шаг конвейера потребует dataset_dir_when_renderingаргумента.

Если вы генерируете данные на портативных жестких дисках, мы рекомендуем запускать наш конвейер пакетами по 10 томов за раз (то есть примерно по 100 сцен за раз) и хранить каждый пакет на своем собственном диске емкостью 4 ТБ. Если вы попытаетесь запустить наш конвейер в слишком больших пакетах, конвейер в конечном итоге создаст слишком много промежуточных данных, и у вас закончится место для хранения. По нашему опыту, самый простой способ запустить наш конвейер пакетами - это включить необязательный scene_namesаргумент при выполнении каждого шага конвейера.

scene_namesАргумент работает следующим образом. Мы даем каждой сцене в нашем наборе данных уникальное имяai_VVV_NNN, гдеVVV-номер тома, аNNN-номер сцены внутри Тома (например, имя ai_001_002относится к сцене Тома 1 2). Каждый шаг нашего конвейера может обрабатывать определенную сцену (или сцены), задавая scene_namesаргумент, который принимает подстановочные выражения. Например, ai_001_001задает Том 1 Сцена 1, ai_001_*задает все сцены из Тома 1, ai_00*задает все сцены из томов 1-9, ai_01*задает все сцены из томов 10-19 и так далее. Мы включаем этот аргумент --scene_names ai_00*в наши инструкции ниже.

Обработка сцен и траекторий движения камеры, исключенных вручную

При подготовке набора данных Hypersim мы решили вручную исключить некоторые сцены и автоматически сгенерировать траектории движения камеры. Большинство сцен, которые мы исключили, просто закомментированы в нашем _dataset_config.pyфайле, и поэтому наш конвейер никогда не обрабатывает эти сцены. Однако для некоторых сцен нам нужно было запустить часть нашего конвейера, чтобы решить исключить их. Эти сцены не комментируются в нашем dataset_config.py файл, и поэтому наш конвейер будет обрабатывать эти сцены по умолчанию. Нет никакого вреда в том, чтобы запустить наш конвейер для этих сцен, но можно сэкономить немного времени и денег, не отрисовывая изображения для этих исключенных вручную сцен и траекторий камер.

Траектории камер, которые мы вручную исключили из нашего набора данных, перечислены в hypersim/evermotion_dataset/analysis/metadata_camera_trajectories.csvсписке . Если Scene typeстолбец указан как OUTSIDE VIEWING AREA (BAD INITIALIZATION)orOUTSIDE VIEWING AREA (BAD TRAJECTORY), то мы считаем, что эта траектория будет вручную исключена из нашего набора данных. Если все траектории камеры для сцены были исключены вручную, то мы считаем, что сцена была исключена вручную. Мы рекомендуем исключить эти сцены и траектории движения камеры в последующих обучающих приложениях для обеспечения согласованности с другими публикациями и получения максимально чистых обучающих данных.

Использование наших аннотаций сетки

Наши аннотации сетки для каждой сцены проверяются по адресуhypersim/evermotion_dataset/scenes/ai_VVV_NNN/_detail/mesh, где VVVнаходится номер тома и номер NNNсцены внутри Тома. Таким образом, вы можете использовать наш автоматический конвейер для создания изображений семантической сегментации на уровне экземпляра без необходимости вручную аннотировать какие-либо сцены.

Анализ ценности и стоимости каждого изображения в последующих приложениях

Мы включаем стоимость рендеринга каждого изображения в нашем наборе hypersim/evermotion_dataset/analysis/metadata_rendering_tasks.csvданных . Мы включаем эти метаданные рендеринга, чтобы предельная ценность и предельная стоимость каждого изображения могли быть совместно проанализированы в последующих приложениях.

В нашем конвейере мы разделяем рендеринг на 3 прохода. Каждый проход рендеринга для каждого изображения в каждой траектории камеры соответствует определенной задаче, и затраты metadata_rendering_tasks.csvуказаны для каждой задачи. Чтобы вычислить общую стоимость изображения frame.0000в траектории камеры cam_00в сценеai_001_001, мы складываем vray_cost_dollarscloud_cost_dollarsстолбцы и для строк, где job_name == {ai_001_001@scene_cam_00_geometry, ai_001_001@scene_cam_00_pre, ai_001_001@scene_cam_00_final}и task_id == 0.

Запуск полного конвейера

Чтобы обработать первую партию сцен (Тома 1-9) в наборе данных Hypersim, мы выполняем следующие шаги конвейера. Мы обрабатываем последующие пакеты, выполняя эти шаги повторно, подставляя scene_namesаргумент, как описано выше. Смотрите 01_marketplace_datasetпример учебника для получения более подробной информации о каждом из этих шагов конвейера.

Вы должны заменить свой собственный dataset_dir_when_renderingпри выполнении этих шагов конвейера, и это должен быть абсолютный путь. Вы также должны заменить свои собственные dataset_dirиdownloads_dir, но эти аргументы не обязательно должны быть абсолютными путями. Вы должны дождаться завершения каждого этапа рендеринга и завершения загрузки всех данных из облака, прежде чем переходить к следующему шагу конвейера.

# pre-processing  # unpack scene data python code/python/tools/dataset_initialize_scenes.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --downloads_dir downloads --dataset_dir_to_copy evermotion_dataset --scene_names "ai_00*"  # export scene data from native asset file into vrscene file (not provided)  # correct bad default export options python code/python/tools/dataset_modify_vrscenes_normalize.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --platform_when_rendering windows --dataset_dir_when_rendering Z:evermotion_dataset --scene_names "ai_00*"  # generate a fast binary triangle mesh representation python code/python/tools/dataset_generate_meshes.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --scene_names "ai_00*" 
# generate an occupancy map (must be run on macOS or Linux) python code/python/tools/dataset_generate_octomaps.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --scene_names "ai_00*" 
# generate camera trajectories (must be run on macOS or Linux) python code/python/tools/dataset_generate_camera_trajectories.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --scene_names "ai_00*" 
# modify vrscene to render camera trajectories with appropriate ground truth layers python code/python/tools/dataset_modify_vrscenes_for_hypersim_rendering.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --platform_when_rendering windows --dataset_dir_when_rendering Z:evermotion_dataset --scene_names "ai_00*" 
# cloud rendering  # output rendering job description files for geometry pass python code/python/tools/dataset_submit_rendering_jobs.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --render_pass geometry --scene_names "ai_00*"  # render geometry pass in the cloud (not provided)  # output rendering job description files for pre pass python code/python/tools/dataset_submit_rendering_jobs.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --render_pass pre --scene_names "ai_00*"  # render pre pass in the cloud (not provided)  # merge per-image lighting data into per-scene lighting data python code/python/tools/dataset_generate_merged_gi_cache_files.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --scene_names "ai_00*"  # output rendering job description files for final pass python code/python/tools/dataset_submit_rendering_jobs.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --render_pass final --scene_names "ai_00*"  # render final pass in the cloud (not provided) 
# post-processing  # generate tone-mapped images for visualization python code/python/tools/dataset_generate_images_tonemap.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --scene_names "ai_00*"  # generate semantic segmentation images python code/python/tools/dataset_generate_images_semantic_segmentation.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --scene_names "ai_00*"  # generate 3D bounding boxes (must be run on macOS or Linux) python code/python/tools/dataset_generate_bounding_boxes.py --dataset_dir /Volumes/portable_hard_drive/evermotion_dataset --bounding_box_type object_aligned_2d --scene_names "ai_00*" 

Источник: github.com

Комментарии: