일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- bitwise
- codeup
- 비교연산
- 코드업
- 논리연산
- 산술연산
- 딥러닝
- Docker
- OpenCV
- 종합
- 기초 100제
- 불 연산
- 기초100제
- 출력
- 파이썬
- input()
- 반복실행구조
- 2차원배열
- 입출력
- 선택실행구조
- 8진수
- 문자열
- 10진수
- face recognition
- 진수
- 비트단위논리연산
- 16진수
- 2진수
- 아스키코드
- 불 자료형
- Today
- Total
목록
728x90
반응형
SMALL
전체 글 (176)
DeepFlowest
환경 : Window10 CUDA Version : 11.1 cuDNN Version : 8.0.1 1. 가상환경 생성 및 활성화 $ conda create -n yolo pip python=3.7 $ conda activate yolo 2. 기본 패키지 설치 $ pip install tensorflow-gpu==2.3.0rc0 $ pip install opencv-python $ pip install easydict $ pip install pillow 3. 소스 clone $ git clone https://github.com/hunglc007/tensorflow-yolov4-tflite 이 링크에서 yolov4.weights 파일 다운로드 후 tensorflow-yolov4-tflite-master..
https://arxiv.org/abs/2007.08854 논문을 읽고 정리한 내용 입니다. 0. Abstract 프레임에서 inpainting area를 채우려면, 다른 프레임의 픽셀을 올바른 occlusion을 사용하여 현재 프레임으로 변환하는 것이 간단하다. 또한 3D point cloud registration을 통해 여러 비디오를 융합 할 수 있으므로 대상 비디오에 여러 소스 비디오를 inpaint할 수 있다. 그 동기는 전체 비디오에서 가려진 영역이 한 번도 보이지 않았던 장기간의 가림(occlusion) 문제를 해결하는 것이다. video inpainting을 위해 여러 비디오를 융합하는 최초의 논문이다. 접근 방식의 효율성을 확인하기 위해 동기화 된 이미지와 Lidar 데이터 (예 : 장시..
https://arxiv.org/abs/1905.02884 논문을 읽고 정리한 내용 입니다. 0. Abstract 이 논문에서는 새로운 flow-guided video inpainting 접근을 제시한다. RGB 픽셀을 직접 채우는 대신 video inpainting을 pixel propagation 문제로 간주함. 새로 설계된 Deep Flow Completion 네트워크를 사용하여 비디오 프레임 전반에 걸쳐 공간 및 시간적으로 일관된 optical flow field (spatially and temporally coherent optical flow field)를 합성함. 그리고 합성된 flow field를 사용하여 픽셀의 전파(propagation)를 안내하여 비디오에서 누락 된 영역을 채움. 이 방법은 DA..
arxiv.org/abs/1905.01639 논문을 읽고 정리한 내용입니다. 0. Abstract Video inpainting : 비디오에 있는 시공간 상의 구멍(spatio-temporal holes)을 메우는 것을 목표로 하는 것. image inpainting을 비디오 영역으로 확장하는 것은 어려운 일임. 이 논문에서 제안하는 모델 빠른 video inpainting을 위한 새로운 deep network architecture 제안 이미지 기반의 인코더-디코더 모델을 기반으로 구축된 이 프레임워크는 이웃 프레임에서 정보를 수집, 정제하고 아직 알려지지 않은 지역을 합성하기 위해 설계됨. 동시에, 출력은 recurrent feedback과 temporal memory module에 의해 일시적으로 ..
WSL2 (Windows Subsystem for Linux 2) 란? ≫ 윈도우에서 경량 가상화 기술을 사용해 리눅스를 구동할 수 있도록 도와주는 기능으로 WSL의 발전된 버전이다. 1. Windows Terminal 설치하기 Microsoft Store에서 Windows Terminal 다운로드 관리자 권한으로 실행하면 다음과 같이 터미널(PowerShell)과 리눅스 셸을 쓸 수 있다.
github.com/mcahny/Deep-Video-Inpainting 코드를 실행시켜 보며 video inpainting 실습을 해본다. 우선 Window 환경이기 때문에 리눅스 명령어를 활용할 수 없어서 "MobaXterm(모바X텀)" SSH을 통해 설치를 진행하였다. MobaXterm 관련 설치는 이 포스팅에 해두었다. 1. conda 환경 만들고, Pytorch library 설치하기 >> conda create -n vinet python=3.7 -y >> conda activate vinet >> conda install pytorch=1.4 torchvision cudatoolkit=10.0 -c pytorch -y 2. git clone git clone https://github.com/..
앙상블 기법 여러 개의 분류 모델을 조합해서 더 나은 성능을 내는 방법 1. 배깅(bagging) 한 가지 분류 모델을 여러 개 만들어서 서로 다른 학습 데이터로 학습시킨 후( 부트스트랩), 동일한 테스트 데이터에 대한 서로 다른 예측값들을 투표를 통해(어그리게이팅) 가장 높은 예측값으로 최종 결론을 내리는 앙상블 기법 ==> 과대적합이 쉬운 모델에 상당히 적합한 앙상블 1-1. 부트스트랩(bootstrap) 데이터를 조금은 편향되도록 샘플링하는 기법 데이터 샘플링 시 편향을 높임으로써 분산이 높은 모델의 과대적합 위험을 줄이는 효과를 준다. N개의 데이터를 총 k개의 데이터로 나누어 담을 때 중복을 허용해서 데이터의 편향을 높인다. ( 부트스트랩을 사용하지 않으면 모두 동일하게 N개의 데이터로 학습 =..
https://github.com/richmondu/facenet/tree/master/usage richmondu/facenet Face recognition using Tensorflow. Contribute to richmondu/facenet development by creating an account on GitHub. github.com 위 링크를 참고하여 웹캠을 이용한 실시간 얼굴 인식 세미 프로젝트를 진행해 보았다. >> pip install scipy==1.1.0 >> git clone https://github.com/richmondu/facenet.git >> conda activate venv >> cd facenet >> requirements.txt 파일에 tensorflow ..