일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- libtorch
- self-supervision
- EfficientNet
- svdd
- support vector machine 리뷰
- darknet
- SVM 이란
- CNN
- CS231n
- pytorch project
- computervision
- pytorch
- TCP
- SVM margin
- RCNN
- pytorch c++
- 데이터 전처리
- SVM hard margin
- yolov3
- Object Detection
- cs231n lecture5
- Computer Vision
- yolo
- fast r-cnn
- Faster R-CNN
- 서포트벡터머신이란
- DeepLearning
- Deep Learning
- 논문분석
- cnn 역사
Archives
- Today
- Total
목록svd란 (1)
아롱이 탐험대
SVD의 기본 이론과 이해 및 활용
SVD (Singular Value Decomposition) 정의: 임의의 $m * n$ 차원 행렬 A에 대하여 다음과 같이 행렬 분해를 할 수 있다는 행렬 분해 방법 중 하나이다. $$ A = U\Sigma V^T $$ $A: m \times n$ rectangular matrix $U: m \times n$ orthogonal matrix $\Sigma : m \times n$ diagonal matrix $V^T: m \times n$ orthogonal matrix Pre-knowledge Orthogonal matrix - ortho~: 두 벡터가 직교한다. - orthogonal vectors: 두 벡터의 내적 값은 0인 벡터들 - $UU^T = U^T U = 1$ $\therefore$ $..
study/linear algebra
2022. 1. 21. 16:44