본문 바로가기

IT27

K-Means Clustering(K-평균 군집화) 예시로 쉽게 이해하기 Clustering은 비지도 학습이다. 지도 학습에서는 정답인 Y label이 있는 데이터를 사용하여 정답을 맞추는 것을 목표로 하나, 비지도 학습에서는 feature 정보들만 있는 데이터를 사용하여 최대한 비슷한 데이터들을 묶어 군집(Cluster)을 만드는 것이 목표이다. K-means Clustering(K-평균 군집화) 클러스터링(Clustering)을 설명하는데 있어 가장 기본적인 알고리즘이 K-means Clustering으로 이를 수행하는 방법은 다음과 같이 아주 쉽다. 본인이 생각하는 적정한 군집의 수 K(예제에서는 K=3)를 설정한다. Step 1: 각 데이터에 랜덤 하게 class를 부여한다. Iteration 1, Step 2a: 각 class마다 점들 평균인 centroid를 구한다.. 2020. 11. 19.
SVM 쉽게 이해하기 - (2) Support Vector Machine(서포트벡터머신) Deep learning이 non linear 한 문제를 푸는 데 있어 성능이 아주 좋지만, 심플하면서 간혹 성능이 더 좋은 경우를 찾기 위해 기본적인 머신러닝 기법을 사용하는 경우가 있다. 머신러닝 기법 중 대표적인 것 중 하나가 SVM이다. SVM은 Linear하지 않은 문제에 대해 boundary를 정의하는 방법을 의미한다. ​ Support Vector Classifier의 한계 Support Vector Classifier로 non linear 한 문제를 풀고자 하면 $x^2$와 같이 ‘기존 변수를 제곱한 새로운 변수’등 변환된 변수를 추가하여 linear 한 문제인 것처럼 classify 할 수 있다. 하지만 이러한 변수를 일일이 만들고, 어떤 변수가 좋은지 선정하는 것 자체가 또 하나의 문제.. 2020. 11. 10.
SVM 쉽게 이해하기 - (1) Maximal Margin Classifier와 Support Vector Classifier Deep learning이 non linear 한 문제를 푸는 데 있어 성능이 아주 좋지만, 심플하면서 간혹 성능이 더 좋은 경우를 찾기 위해 기본적인 머신러닝 기법을 사용하는 경우가 있다. 머신러닝 기법 중 대표적인 것 중 하나가 SVM이다. SVM을 이해하기 전, 보다 기본적인 Maximal Margin Classifier와 Support Vector Classifier에 대한 이해가 필요한데, D dimension이 있을 때 이를 구분하는 d-1차원의 hyperplane을 긋는 것을 목적으로 하는 알고리즘으로 이해하면 된다. ​ Maximal Margin Classifier와 Support Vector Classifier는 관찰 데이터 x들을 두 개의 class $y_1, …, y_n \in \{-.. 2020. 11. 10.
Boosting(부스팅) 쉽게 이해하기, Adaboost 파이썬 코드 Boosting기법은 머신러닝을 사용할 시, 퍼포먼스가 좋기 때문에 반드시 돌려봐야 하는 알고리즘 중 하나이다. Decision tree를 발전시킨 방법인 방법으로 관련 내용은 다음을 참고하면 좋다. 의사결정트리(Decision Tree) 회귀트리, pruning 쉽게 이해하기 결정 트리 학습법(decision tree learning)은 머신러닝 학습 방법 중, 결과 데이터(output variable)로 학습시키는 지도 학습(supervised learning)에 해당된다. Output variable 이 연속적인 값일 경우(월급,.. modern-manual.tistory.com 의사결정트리 배깅(Bagging)과 랜덤포레스트(Random Forest) 쉽게 이해하기 Bagging과 random f.. 2020. 11. 3.