일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- yolov3
- SVM margin
- EfficientNet
- cnn 역사
- CS231n
- Object Detection
- fast r-cnn
- 논문분석
- pytorch project
- DeepLearning
- cs231n lecture5
- computervision
- support vector machine 리뷰
- Computer Vision
- svdd
- CNN
- self-supervision
- SVM 이란
- pytorch c++
- Deep Learning
- libtorch
- 서포트벡터머신이란
- SVM hard margin
- RCNN
- Faster R-CNN
- darknet
- TCP
- pytorch
- yolo
- 데이터 전처리
Archives
- Today
- Total
목록Black Swan Paradox (1)
아롱이 탐험대
Online Learning, Overfitting and Black Swan Paradox
Online Learning Machine learning에는 크게 batch learning과 online learning이 존재한다. 만약 데이터 1000만 개가 존재할 때 batch learning은 이를 한 번에 넣어서 학습을 진행하는 반면, online learning은 1~5000, 5001 ~ 10000 이런 식으로 나누어 학습을 진행한다. online learning에서 고려해야하는 점은 항상 결과가 같은지 다른지 이다. batch learning의 posteior는 위에서 정의한 수식과 같다. 하지만 online learning의 경우에는 약간의 차이가 있다. 데이터가 $D_{a}, D_{b}$로 나뉘었다고 가정을 하면 posterior는 아래 수식으로 표현된다. $$ p(\theta \..
study/Machine Learning
2022. 6. 5. 15:39