일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- SVM hard margin
- darknet
- svdd
- DeepLearning
- TCP
- Faster R-CNN
- 서포트벡터머신이란
- pytorch c++
- 데이터 전처리
- SVM 이란
- Object Detection
- RCNN
- yolo
- EfficientNet
- CS231n
- pytorch project
- cnn 역사
- cs231n lecture5
- Computer Vision
- Deep Learning
- support vector machine 리뷰
- libtorch
- computervision
- 논문분석
- yolov3
- pytorch
- self-supervision
- fast r-cnn
- CNN
- SVM margin
Archives
- Today
- Total
목록lecture3 (1)
아롱이 탐험대

lecture 3에서는 lecture 2에 이어서 loss function과 optimization에 대해 리뷰하겠다. 우선 이번 챕터에서는 유명한 loss function인 SVM과 softmax에 대해 설명한다. 지난 시간에 이어서 input에 weight를 곱하고, bias를 더함으로써 3개의 label에 대해 loss를 결과 값을 구하였다. 이 결괏값들을 loss function을 통해 loss를 도출하게 되는데 우선 처음 알아볼 loss function는 SVM이다. SVM은 위와 같이 정의되며 첫 번째 cat에 대한 loss는 계산을 하면 2.9가 된다. car에 대한 loss는 0이다. flog가 10.9으로써 loss가 가장 크고, 이는 인식률이 별로 좋지 않다는 것을 의미한다. 또한 fu..
study/cs231n
2020. 3. 20. 13:13