반응형
K-Means Clustering
- Iteratively re-assign points to the nearest cluster center
- Goal: cluster to minimize variance in data given-clusters
- Steps
- 1): Randomly select K centers
- 2): [Expectation Step] Assign each point to nearest center
- 3): [Minimize Step] Compute new center (mean) for each cluster
- 4): Repeat from the [Expectation Step] to the [Minimize Step] until coverage
Hyperparater of K-Means Clustering
- K (군집의 수): 3, 5, ...
- Initial center: Randomly select, Greedily choose, ...
- Distance measures: L2 Norm, ..., ?
- Maximum of iterations
Pros & Cons of K-Means Clustering
- Pros
- 간단하고 빠르다.
- 구현하기 쉽다.
- Cons
- 수렴이 보장되지 않는다.
- 수렴한다해도, global minimum이 아닌 local minimum으로 수렴할 가능성이 있다.
- 초기 중심값 위치에 따라 원하는 결과가 나오지 않을 수도 있다.
- 이상치(outlier) 데이터에 민감하다.
- 정규화되지 않은 데이터들은 바로 사용할 수 없다.
- 계산량이 많아 속도가 느리다. ( for
N
d
-dimensional points)
- 수렴이 보장되지 않는다.
References
- 디지털영상처리설계 (ICE4027), 인하대학교 정보통신공학과 박인규
- Digital Image Processing 4th Edition, Rafael C. Gonzalez and Richard E. Woods
- Computer Vision: Algorithms and Applications 2nd Edition, Richard Szeliski
- k-평균 알고리즘 - 위키백과, 우리 모두의 백과사전
반응형
'Artificial Intelligence > ML & DL' 카테고리의 다른 글
Continual Learning의 목표와 Forward Transfer 및 Backward Transfer (1) | 2024.10.27 |
---|---|
[정보이론] (Shannon) Entropy, Cross Entropy, KL Divergence (0) | 2023.03.30 |
[ML] K-Nearest Neighbors 알고리즘 (KNN) (0) | 2023.03.30 |
[ML] L1 Distance, L2 Distance 차이 및 시각화 - Distance Metric to Compare Vectors (0) | 2023.03.30 |
[ML] Class Variation - Intra-class Variation vs. Inter-class Variation (0) | 2023.03.30 |