일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- cnn 역사
- 데이터 전처리
- support vector machine 리뷰
- TCP
- RCNN
- CS231n
- svdd
- pytorch c++
- cs231n lecture5
- Faster R-CNN
- Object Detection
- CNN
- computervision
- pytorch
- Deep Learning
- EfficientNet
- self-supervision
- DeepLearning
- SVM margin
- fast r-cnn
- yolo
- 논문분석
- SVM 이란
- darknet
- yolov3
- pytorch project
- libtorch
- SVM hard margin
- Computer Vision
- 서포트벡터머신이란
Archives
- Today
- Total
목록svd란 (1)
아롱이 탐험대

SVD (Singular Value Decomposition) 정의: 임의의 $m * n$ 차원 행렬 A에 대하여 다음과 같이 행렬 분해를 할 수 있다는 행렬 분해 방법 중 하나이다. $$ A = U\Sigma V^T $$ $A: m \times n$ rectangular matrix $U: m \times n$ orthogonal matrix $\Sigma : m \times n$ diagonal matrix $V^T: m \times n$ orthogonal matrix Pre-knowledge Orthogonal matrix - ortho~: 두 벡터가 직교한다. - orthogonal vectors: 두 벡터의 내적 값은 0인 벡터들 - $UU^T = U^T U = 1$ $\therefore$ $..
study/linear algebra
2022. 1. 21. 16:44