목록분류 전체보기 (39)
Trikang
3D-GS 계열 전체에 걸쳐 쓸 수 있는 FPS 측정 스크립트를 야매로 구성해봤다. EAGLES의 코드를 많이 참고함.사용법은 3dgs 코드의 render.py와 거의 유사하다 아래 소스코드를 복사한 후, 3d-gs 디렉토리에 새로운 python 파일 하나 붙여넣은 다음에 사용하면 된다. 나는 measure_fps.py로 이름 짓고 사용 중.import osimport jsonimport torchimport numpy as npimport subprocess as spfrom gaussian_renderer import renderimport torch.utils.benchmark as benchmarkfrom gaussian_renderer import GaussianModelfrom argparse..
Part 11. IntroductionDJI 카메라는 이미지 및 비디오 데이터와 함께 미디어 파일에 설명적 메타데이터를 제공합니다. 이러한 메타데이터는 분석과 후처리 워크플로우에서 사용자를 지원하며, 프로 사용자 및 개발자가 심도 있는 후처리를 수행하는 데 필수적입니다. 이 문서 세트는 DJI 제품의 미디어 포맷 내 메타데이터의 구성과 기술 표준을 설명하고, DJI 제품에서 메타데이터를 얻는 지침을 제공합니다.1.1 Organization of Document Set메타데이터 백서(White Paper)는 세 부분으로 구성됩니다:Part 1, 개요: DJI가 제공하는 메타데이터의 기본 개념과 미디어 파일에서 메타데이터가 어떻게 구성되는지 소개합니다. 이 파트는 DJI가 제공하는 메타데이터의 종류와 미디어..
논문RaceLens: A Machine Intelligence-Based Application for Racing Photo Analysishttps://www.semanticscholar.org/paper/RaceLens%3A-A-Machine-Intelligence-Based-Application-Boiarov-Bleklov/4c1319d88fffd68f79484b9f94758097a682282a#related-papers AI-Based Race Strategy Assistant and Car Data Monitorhttps://www.diva-portal.org/smash/get/diva2:1756880/FULLTEXT01.pdf Cyclist Speed Estimation Using Accele..
카트에 입문한 후, 주행 영상을 기록하기 위해 액션캠을 업어왔다(Osmo Action 5 Pro). 그리고 영상을 기록하다 보니, 자연스럽게 랩타임을 알고 싶어지고 랩 별 차이도 알고싶어졌다(랩타이머). 그래서 제일 비용 합리적인 선에서 랩타임을 기록하고 주행 영상에 오버레이 할 수 있는 방안을 탐색하기 시작하였으며, 결국 RaceChrono Pro(iOS/안드로이드 앱 - 29,000원) + 액션캠(with GPS) 조합이 제일 합리적일 것이라고 판단하였다. 나는 이미 액션캠이 있으니까, 제일 가성비있게 GPS 정보를 수신하는 방법은 Osmo Action 5 Pro와 연동되어 쓸 수 있는 79,000원 상당의 GPS 블루투스 컨트롤러였기에, 이를 구입하였고 액션캠과 연동하여 영상을 촬영하였다. 촬영된..
DJI H20T thermal radiometric jpeg file 보정되지 않은 섭씨 온도를 얻으려면celsius = ((raw_int16 >> 2) * 0.0625) - 273.15from PIL import Imageimport numpy as npim = Image.open("/datasets/dji_thermal/images/DJI_20240520212354_0001_T.JPG")# concatenate APP3 chunksa = im.applist[3][1]for i in range(4, 14): a += im.applist[i][1]raw = np.array(Image.frombytes('I;16L', (640, 512), a), np.int16)celsius = np.right_sh..
기존에 docker가 로컬 머신에 설치되어 있음을 전제로 함 devel, runtime 등 다양한 이미지 타입이 있는데, 본인은 devel로 선택(개발용)하였음아래의 명령을 통해서 잘 작동하는지 확인할 수 있다sudo docker run --rm --gpus all nvidia/cuda:11.8.0-cudnn8-devel-ubuntu20.04 nvidia-smi 그리고 파이토치 포함 이미지 다운로드https://hub.docker.com/r/pytorch/pytorch/tags에서 본인에게 맞는 버전 검색 후 사용 가능아래는 pytorch 2.3.1, cuda 11.8, 런타임 버전의 이미지 다운로드 예시docker pull pytorch/pytorch:2.3.1-cuda11.8-cudnn8-runti..
TMI코드 실행 중 문제가 생겨 문제 수정 후 pull request 보냈는데, 승인되어 해당 논문 코드의 Contributors의 명단에 이름을 올리게 되었다. 간단한 코드 수정을 통해 얻은 결과라 크게 성취감을 느끼진 않지만, 신기해서 공유해본다.1. Introduction"NeRFs have also been successfully extended to other sensor modalities"Depth viewsMultimodal Neural Radiance Field(2023 ICRA)Near-infrared and multi-spectral imagesCrossSpectral Neural Radiance Fields(2022 3DV)LiDAR point cloudsNeRF-LiDAR: Gen..
찾아도 잘 안나와서 몰랐는데, 이번 CVPR 2024에서 Accept 된듯하다.1. Introduction일반적으로 Reconstruction을 수행하기 위해서는 카메라의 intrinsic, extrinsic 파라미터를 구해야 했다. 이는 일반적으로 지루하고 번거로운 작업이지만, 모든 최고 성능의 MVS 알고리즘의 핵심인 3D 공간에서 해당 픽셀을 삼각 측량하는 데 필수적이다. 해당 논문에서는 camera calibration이나 viewpoint pose에 대한 prior information\(사전 정보\)이 없이 작동하는, 근본적으로 새로운 패러다임인 Dense and Unconstrained Stereo 3D Reconstruction\(DUSt3R\)를 소개한다. 해당 논문에서는 일반적인 pro..
문제데이터 셋을 준비하고 CamP를 돌리기 이전에 ZipNeRF를 먼저 돌리려고 시도하면 10,000번 마다 checkpoint를 저장하는 코드에서 아래와 같은 이슈 발생 "TypeError: PyTreeCheckpointHandler.__init__() got an unexpected keyword argument 'restore_with_serialized_types'"...I0602 16:26:44.424313 140658210706048 train.py:360] 9800/200000: loss=0.00852, psnr=32.213, lr=7.77e-04 | data=0.00726,dist=1.5e-06, inte=1.7e-05, inte=1.5e-05, regu=6.7e-06, regu=3...