일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- RCNN
- self-supervision
- pytorch c++
- Computer Vision
- TCP
- 데이터 전처리
- CS231n
- pytorch
- EfficientNet
- darknet
- SVM hard margin
- Faster R-CNN
- cnn 역사
- yolo
- Object Detection
- cs231n lecture5
- Deep Learning
- computervision
- svdd
- pytorch project
- libtorch
- yolov3
- SVM 이란
- CNN
- fast r-cnn
- 서포트벡터머신이란
- 논문분석
- support vector machine 리뷰
- DeepLearning
- SVM margin
Archives
- Today
- Total
목록기계학습 통계 (1)
아롱이 탐험대

이번 시간에는 기계 학습에서 사용되는 기본적인 확률 및 통계론에 대해 알아보자. Probability 확률론 및 통계학을 나누는 여러 가지 방법 중에는 frequentist (빈도 주의적 접근)와 Bayesian (베이즈 접근)으로 구분하는 것이 있다. Frequentist는 사건을 무수히 많이 반복하여 얻어지는 확률을 가지고 표현하는 관점으로 확률을 보고, Bayesian은 어떤 것에 대한 불확실성을 정량화하는 관점으로 본다. 이를 이해하기 쉽게 동전 던지기 사건으로 설명하자면 frequentist는 동전을 매우 많이 던지면 결국 앞면이 나오는 경우의 확률은 50%로 수렴한다는 것이고, bayesian은 다음에 동전을 던지는 것 또한 앞면, 뒷면의 확률이 같다고 가정한다. 우리는 Baysian의 관점에..
study/Machine Learning
2022. 4. 6. 12:23