일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- support vector machine 리뷰
- cnn 역사
- Faster R-CNN
- cs231n lecture5
- svdd
- pytorch project
- pytorch
- 데이터 전처리
- RCNN
- Object Detection
- Deep Learning
- 서포트벡터머신이란
- darknet
- EfficientNet
- yolo
- CNN
- SVM 이란
- TCP
- CS231n
- pytorch c++
- fast r-cnn
- computervision
- SVM hard margin
- SVM margin
- 논문분석
- Computer Vision
- libtorch
- self-supervision
- yolov3
- DeepLearning
- Today
- Total
목록All (94)
아롱이 탐험대
OSI 7 계층의 프로토콜은 [그림 1]과 같다. 프로토콜은 이전 포스트의 내용과 같이 일종의 통신 규약을 의미한다. 이번 포스트에서는 OSI 7 계층 중 Transport layer에 속하는 TCP를 중점적으로 알아보자. TCP는 현재 transport layer 뿐만 아니라 전체적인 네트워크 통신에서도 핵심적인 역할을 하고 있는 프로토콜이다. 컴퓨터에서 네트워크를 사용하는 모든 process들은 port number를 부여받아야 한다. port number가 없으면 통신이 불가능하다. 예를 들며 설명하자면 IP는 회사 대표 번호, port는 내선 번호로 생각하면 된다. 클라이언트와 웹서버와 통신할 때 클라이언트는 0부터 1023까지 port number가 지정되어 있어 자동으로 할당해준다. 이때 웹사..
인터넷 컴퓨터로 연결하여 TCP/IP Protocol이라는 통신 프로토콜을 이용해 정보를 주고받는 컴퓨터 네트워크이다. 1973년 TCP/IP를 정립한 빈튼 서프와 밥 간이 네트워크의 네트워크를 구현하여 모든 컴퓨터를 하나의 통신망 안에 연결하고자 하는 의도를 본 따 인터넷이라는 말을 붙었는데 이를 토대로 현재까지 인터넷으로 불리고 있다. 위처럼 인터넷은 네트워크 간 연결하는 프로토콜로 중앙 통제 및 중앙 제어를 없애자는 것을 우선순위로 두고 개발이 되었다. 이로 인해 많은 장단점들이 생기기 시작했다. 전송 기술의 표준이 없어 다른 네트워크로의 데이터 전송이 어려웠지만 인터넷 프로토콜이 생겨남으로 인해 데이터 통신이 용이해졌다. 인터넷은 TPC/IP 기반으로 동작하게 된다. 여기서 프로토콜이란 컴퓨터 내..
본 포스트는 고려대학교 산업경영공학부 강필성 교수님의 Business Analytics 강의를 정리한 내용입니다. Dimensionality Reduction이란 original data의 차원을 줄이면서 prediction model의 성능을 최대한으로 유지하는 기법이다. 차원 축소를 하는 이유는 무엇일까? 현실 세계에 존재하는 데이터는 대부분 고차원으로 형성이 되어있다. 예를 들어 넷플릭스 추천 시스템을 생각해보자. 각 유저에 마다 즐겨 찾는 카테고리, 최근 시청 기록, 선호하는 미디어, etc 등 수많은 차원으로 구성되어 있다. 궁극적으로 추천 시스템을 만드는 데 있어 모든 변수를 고려할 필요는 없다. 다양한 변수 중 중요한 변수도 있고, 필요 없는 변수들도 있다. 따라서 우리는 효율적인 변수만 채..
Broadcasting : 산술적인 연산을 진행할 때 shape가 다른 array가 어떻게 처리되는 지를 설명한다. : Broadcasting이라는 용어의 시초는 numpy이며, 현재 matlab과 같은 다양한 라이브러리에서 사용된다. 사전적 의미는 다음과 같다. verb (used with object), broadcast or broadcasted,broadcasting. to transmit (programs) from a radio or television station. to speak, perform, sponsor, or present on a radio or televisionprogram to cast or scatter abroad over an area, as seed in sowin..
NMF (Non-netgative Matrix Factorization) : 음수를 포함하지 않는 행렬 $X$를 음수를 포함하지 않는 행렬 $W$와 $H$의 곱으로 분해하는 알고리즘이다. $$ X = WH$$ $$X\in \mathbb{R}^{m \times n} \\ where \ m: Num \ of \ data samples, \ n: Dimension \ of \ data \ samples$$ 만약 $p$개의 feature를 가지고 원래의 $data \ set \ X$를 분해한다면 $$W\in \mathbb{R}^{m \times p}, \ H \in \mathbb{R}^{p \times n} $$ NMF는 다른 분해법과는 달리 분해 후 non-netgativity 특성을 보존할 수 있고, PCA..
SVD (Singular Value Decomposition) 정의: 임의의 $m * n$ 차원 행렬 A에 대하여 다음과 같이 행렬 분해를 할 수 있다는 행렬 분해 방법 중 하나이다. $$ A = U\Sigma V^T $$ $A: m \times n$ rectangular matrix $U: m \times n$ orthogonal matrix $\Sigma : m \times n$ diagonal matrix $V^T: m \times n$ orthogonal matrix Pre-knowledge Orthogonal matrix - ortho~: 두 벡터가 직교한다. - orthogonal vectors: 두 벡터의 내적 값은 0인 벡터들 - $UU^T = U^T U = 1$ $\therefore$ $..
1. Motivation 위 논문은 2020년도 ICLR에서 나온 논문이다. 논문의 저자는 이전 Deep SVDD 저자와 같다. 또한 내용도 매우 흡사해 이전 논문을 먼저 공부한 후 해당 논문을 보는 것을 추천한다. https://ys-cs17.tistory.com/50 (Deep One-Class Classification [Deep SVDD] 리뷰) 해당 논문을 요약하자면 기존 SVDD의 수식을 약간 변형시켜 Semi-Supervised learning에 활용하였다. 여기서 Semi-Supervised learning이란 label이 있는 데이터와 label이 없는 데이터 둘 다 딥러닝 모델에 넣어 학습시키는 방법을 의미한다. 2. Relation Work A. Information Bottlenec..
1. Motivation 위 논문은 18년도 ICML 학회에서 나온 논문이다. 이전까지의 Anomaly detection 분야는 주로 SVM (Support Vector Machine)과 SVDD (Support Vector Data Description)과 같은 전통적인 방법을 통해 해결하였다. 이 논문은 Anomaly detection을 SVDD에 기반으로 딥러닝을 적용하였다. 2. Relation works Deep One-Class Classification에서 등장하는 가장 중요한 이론인 Deep SVDD를 이해하기 위해서는 SVDD에 대한 사전 지식이 필요하다. SVDD를 간단하게 요약하면 feature space에서 정상에 해당하는 데이터를 둘러싸는 Hypersphere를 찾고, 해당 Hyp..