일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 논문분석
- SVM 이란
- darknet
- EfficientNet
- cnn 역사
- fast r-cnn
- SVM hard margin
- TCP
- pytorch
- SVM margin
- pytorch c++
- support vector machine 리뷰
- yolov3
- Computer Vision
- Faster R-CNN
- CS231n
- 데이터 전처리
- Deep Learning
- libtorch
- self-supervision
- DeepLearning
- computervision
- svdd
- CNN
- pytorch project
- Object Detection
- RCNN
- cs231n lecture5
- yolo
- 서포트벡터머신이란
Archives
- Today
- Total
목록sklearn svd (1)
아롱이 탐험대

SVD (Singular Value Decomposition) 정의: 임의의 $m * n$ 차원 행렬 A에 대하여 다음과 같이 행렬 분해를 할 수 있다는 행렬 분해 방법 중 하나이다. $$ A = U\Sigma V^T $$ $A: m \times n$ rectangular matrix $U: m \times n$ orthogonal matrix $\Sigma : m \times n$ diagonal matrix $V^T: m \times n$ orthogonal matrix Pre-knowledge Orthogonal matrix - ortho~: 두 벡터가 직교한다. - orthogonal vectors: 두 벡터의 내적 값은 0인 벡터들 - $UU^T = U^T U = 1$ $\therefore$ $..
study/linear algebra
2022. 1. 21. 16:44