일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Deep Learning
- SVM 이란
- computervision
- RCNN
- Faster R-CNN
- 논문분석
- pytorch project
- yolo
- 데이터 전처리
- TCP
- Computer Vision
- libtorch
- SVM margin
- fast r-cnn
- EfficientNet
- cnn 역사
- pytorch
- CNN
- darknet
- pytorch c++
- CS231n
- 서포트벡터머신이란
- yolov3
- self-supervision
- DeepLearning
- svdd
- support vector machine 리뷰
- SVM hard margin
- Object Detection
- cs231n lecture5
- Today
- Total
목록All (94)
아롱이 탐험대
Subnet도 mask가 존재한다. 이를 subnetid를 가지고 mask를 결정한다. 만약 주소 class B에 속하는 주소 1개에 대해 4개의 subnet을 나눈다고 가정을 하면 총 $16 + log {2^{4}} = 18$ 개의 bit까지 확인을 해야 한다. 주소가 주어지면 subnet mask와 AND 연산을 하면 네트워크의 주소가 나온다. Supernet Class A, B, C에 속하는 주소들의 gap은 너무 큰데, 이를 해결하고자 supernet이라는 것이 제안되었다. 이는 class를 묶어서 하나로 표현한 것이다. 예를 들어 class C 주소가 200.3.128.0이고, 다음 주소가 200.3.129.0, 200.3.130.0,...이라고 가정하면 이를 이진수로 200.3.10000000..
Introduction Probabilistic classifier의 목적은 어떠한 label에 대해 확률 적으로 추론하는 것이다. Generative approach는 $p(y,x)$의 joint model을 찾은 후, vector $x$의 조건에 따라 $p(y \mid x)$를 구했다. Discriminative approach는 $p(y \mid x)$를 바로 구하기 위해 model을 fitting 하는 과정이다. 이번 챕터에서는 parameter인 $w^{T}, x$가 linear한 discrimitive model이라는 것을 가정할 것이다. 이렇게 하면 model fitting 과정을 단순화할 수 있다. Model specification 본격적으로 logistic regression formu..
본 포스트는 고려대학교 산업경영공학부 강필성 교수님의 Business Analytics 강의를 정리한 내용입니다. OVERVIEW Anomaly detection의 목표는 비슷하게 생긴 객체들 사이에서 다른 객체를 탐지하는 것이다. 고전 적인 machine learning의 개념에서 기계가 학습이 가능하다고 말하는 것은 어떠한 task T에 대해 얼마나 학습을 잘하는지를 측정하는 performance measure P가 있을 때, 충분한 경험, 즉 데이터 E를 제공해주면 P가 상승된다는 것이다. Unsupervised learning에서 우리는 주어지는 데이터에 대한 distribution을 추정하거나, 데이터 간 cluster를 찾거나, 데이터 간 association을 분석하는 것들을 각각의 node..
Linear regression은 supervised learning에서 많이 사용되고, 앞에서 살펴보았던 kernel이나 basis expansion 등을 이용해 Non-linear relationship을 가진 model을 만들 수 있었다. 우리는 아래 수식과 같이 parameter들을 주로 Gaussian을 사용하여 modeling을 진행했었다. $$ \text{Linear regression model:}\ \ p(y\mid {x}, {\theta}) = \mathcal{N}(y\mid w^{T}x, \sigma^{2}) $$ $$ \text{Non-linear regression model:}\ \ p(y\mid {x}, {\theta}) = \mathcal{N}(y\mid w^{T}x\phi(..
우리가 주로 쓰는 ip 주소는 ipv4이다. 이는 32비트로 이루어져있고, 우리는 이를 10진법으로 변환하여 표현한다. 네트워크 상에서 ip 주소는 몇 가지 예외를 제외하고 전 세계에 딱 1개이다. 사설망 구축 주소 192.168. ... . ... 또는 127로 시작하는 루프백 주소를 제외하고는 ip 주소는 unique하다. 밑에 Dotted decimal에 써있는 숫자가 우리가 주로 보는 ip 주소이다. ip는 사실 32비트짜리 숫자 1개라고 생각하면 된다. 하지만 사람들끼리 의사 소통하는 것이 불편하여 8비트씩 끊고 10진법으로 쉽게 풀어서 사용한다. 10진수를 2진수로 변경하는 과정이다. 위 문항들에서 각 틀린 부분을 찾아보자. a. 첫 번째 부분은 0이 될 수 없다. 따라서 045를 45로 바꿔..
WiFi Channels 데이터를 보낼 때는 특정 대역폭을 사용해야 한다. 이 대역폭을 bandwith라고 하고, 만약 channel 1을 통해 데이터를 보내려고 하면, 위 위 그림과 같이 2.4 ~ 2.422 GHz까지의 주파수 영역이 필요하다. 각 채널끼리 간섭을 주지 않으려고 대역폭마다 간격이 존재한다. 하지만 초기 와이파이를 설계했을 당시 채널 간 대역폭을 겹치게 만들었다. 이렇게 겹치는 대역폭 때문에 데이터가 깨지게 되었다. 결과론적으로 1번, 6번 등으로 서로 중첩되게 하면 안된다. 따라서 한 공간에서 대역폭 중첩이 일어나지 않게 하는 경우의 수는 총 3개이다. 1 - 6 - 11 또는 2 -7 - 12, 3 - 8 - 13,... TCP timers TCP에 있는 timers에 대해 살펴보자..
앞서 살펴본 window size는 RWND와 CWND의 minimum 값을 사용해서 정한다. 오늘은 cwnd에 대해 중점적으로 알아보자. window size는 byte 단위이다. 혼잡 제어에서는 단순하게 설명하기 위해 packet 단위로 설정했다. 실제 구현은 byte 단위로 진행된다. 아래 그림은 packet으로 대체한 것이다. CWND는 sender가 관리한다. 최초에는 CWND를 1로 설정한다. receiving 공간은 충분히 넓고, RWND는 고려하지 않는다고 가정하자. CWND를 처음에는 1로 보내고 순차적으로 2, 4, 8로 증가시킨다. 이를 자세히 알아보기 위해 아래 그림을 통해 살펴보자. i = 4라는 것은 packet을 4개 보낸다는 의미이다. 혼잡 제어에서 ACK을 줄이는 것은 무시..
Central limit theorem 각각 평균 $\mu$와 분산 $\sigma^{2}$ 에 대한 probability density function인 $p(x_{i})$를 갖는 $\text{R.V.}$에 대해 생각해보자. 각 variable이 independent이고, i.i.d. (identically distributed)라고 가정하자. $S_{N} = \sum_{i = 1}^{N}X_{i}$은 random variable의 합이고, 이는 간단하지만 널리 사용되는 random variable의 transformation이다. N이 증가할수록, S_{N}의 distribution은 아래 식과 가까워진다는 것을 알 수 있다. 다시 말해, 주어진 조건에서 N이 증가할수록 Gaussiam distribu..