목록분류 전체보기 (39)
Trikang
https://youtu.be/oJEPQoE-_Rg?si=Zn37Efr4BlaPFmRD&t=23
knn 함수를 수정할 필요가 있어서 simple-knn 모듈 내의 spatial.h, spatial.cu에 knn2 함수를 추가해줬다. // spatial.h #include torch::Tensor distCUDA2(const torch::Tensor& points); torch::Tensor knn2(const torch::Tensor& points); 그리고 이를 빌드하기 위해 ext.cpp를 아래처럼 수정했다 #include #include "spatial.h" PYBIND11_MODULE(TORCH_EXTENSION_NAME, m) { m.def("distCUDA2", &distCUDA2); m.def("knn2", &knn2); // 추가 } 이후 gaussian-splatting 루트 디렉토..
train.py의 main 함수 전체 구조 if __name__ == "__main__": # Set up command line argument parser parser = ArgumentParser(description="Training script parameters") lp = ModelParams(parser) op = OptimizationParams(parser) pp = PipelineParams(parser) parser.add_argument('--ip', type=str, default="127.0.0.1") parser.add_argument('--port', type=int, default=6009) parser.add_argument('--debug_from', type=int,..
MiniGPT-4는 처음에 4개의 A100 GPU에서 256 배치 크기를 사용하여 20,000 번의 학습을 진행하며, LAION, Conceptual Captions, SBU의 이미지를 포함하는 combined image captioning dataset을 활용하여 visual features를 Vicuna language model과 align한다. 그럼에도 불구하고, 단지 LLM과 visual features를 align하는 것으로는 챗봇처럼 강력한 visual conversation(시각적 대화) 기능을 보장하기에는 불충분하다. raw 이미지-텍스트 쌍에 기본 노이즈가 있으면 언어 출력이 수준 이하로 떨어질 수 있다. 따라서 생성된 언어의 자연스러움과 사용성을 개선하기 위해 3,500개의 상세한..
기본적으로 NeRF LLFF 데이터 셋은 3D-GS에서 동작하지 않는다. LLFF 데이터 셋은 SIMPLE_RADIAL 카메라 모델을 사용하고 있는 . 것같다. PINHOLE or SIMPLE_PINHOLE -> undistorted dataset AssertionError: Colmap camera model not handled: only undistorted datasets (PINHOLE or SIMPLE PINHOLE cameras) supported! 그래서 아래와 같은 가공 절차를 거쳐서 작동하도록 수정했다. 기존 llff 데이터 셋에 대해 COLMAP을 이용한 가공 진행 image_undistorter를 이용해서 3D-GS가 읽을 수 있는 카메라 모델로 변경. 아래는 fern 데이터에 대한..
드론 매핑을 이용한 데이터 전처리 OpenDroneMap이 docker 버전으로 설치되어 있다고 가정 docker run -ti --rm -v {local directory}:{docker volume에서의 directory} opendronemap/odm --project-path {docker volume에서의 directory} {프로젝트 명} {옵션} 아래는 local directory: /home/user/data/odm_dataset docker volume에서의 directory: /datasets 프로젝트 명: drone-230706-1722-25-fastortho 이라고 가정하였을 때의 코드 예시 * 여기서, local directory 안에 '프로젝트 명' 폴더를 하나 만들고, 그 안에..
아래 github 페이지를 참고하여 진행 https://github.com/ActiveVisionLab/nope-nerf/ Installation 기본적인 설치 방법은 아래와 같다. git clone https://github.com/ActiveVisionLab/nope-nerf.git cd nope-nerf conda env create -f environment.yaml conda activate nope-nerf 그러나 environment.yaml 파일을 까보면 pytorch 1.7, cudatoolkit 10.1을 쓰고 있는데, 현재 cuda 11.8을 쓰고 있어서 여기서 돌아가도록 python, pytorch, torchvision, torchaudio, cudatoolkit 부분을 주석 처리..
sudo apt-get install \ git \ cmake \ ninja-build \ build-essential \ libboost-program-options-dev \ libboost-filesystem-dev \ libboost-graph-dev \ libboost-system-dev \ libeigen3-dev \ libflann-dev \ libfreeimage-dev \ libmetis-dev \ libgoogle-glog-dev \ libgtest-dev \ libsqlite3-dev \ libglew-dev \ qtbase5-dev \ libqt5opengl5-dev \ libcga..
처음엔 pre-build binary를 github에서 받아서 실행시켰는데, 실행이 안되어서 패키지 안을 까서 직접 돌려봤다. 그랬더니 "Library not loaded: @rpath/libamd.2.dylib"라는 에러가 발생했는데, github issue를 보니 나만의 문제가 아니었다. https://github.com/colmap/colmap/issues/935 v3.6 Crash on macOS · Issue #935 · colmap/colmap MacOS 10.15.5 I allowed launching the app from the security settings. Also tried v3.5 Library not loaded: @rpath/libamd.2.dylib ? Process: co..