일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- pytorch c++
- TCP
- RCNN
- svdd
- Object Detection
- libtorch
- self-supervision
- Deep Learning
- support vector machine 리뷰
- CNN
- yolo
- CS231n
- yolov3
- pytorch
- SVM margin
- Faster R-CNN
- SVM 이란
- computervision
- DeepLearning
- 논문분석
- EfficientNet
- cs231n lecture5
- darknet
- 데이터 전처리
- SVM hard margin
- fast r-cnn
- Computer Vision
- cnn 역사
- 서포트벡터머신이란
- pytorch project
Archives
- Today
- Total
목록영상처리 (1)
아롱이 탐험대

지난 시간 loss function과 gradient descent에 이어서 설명하겠다. input과 weight를 곱해 bias를 더한 후 loss function을 통과하여 loss를 구하는 과정을 computation graph를 통해 시각적으로 표현하였다. 여기서는 max function을 이용하여 total loss를 구하였다. computation graph는 눈으로 보기에는 이해하기 쉽고 간단하지만, 계산적인 측면에서는 수만수억 개의 뉴런을 모두 이렇게 계산하기에는 많은 한계점들이 존재한다. 아래는 2020년 기준으로 잘 사용하지는 않지만 유명했던 network들이다. 간단한 예시의 module을 살펴보자. 우선 왼쪽에서 오른쪽 방향으로 가는 것을 FP(forward path)라 하고, 한국..
study/cs231n
2020. 3. 25. 13:46