K-means原理:
所谓物以类聚,人以群分。相似的人们总是相互吸引在一起。
数据也是一样。在kNN中,某个数据以与其他数据间的相似度来预测其标签,而K-means是一群无标记数据间的因为自我相似的聚拢。显而易见,K-means的目标为簇内密集而簇间稀疏。
简单来说就是首先先确定k个初始点作为质心,然后将数据集中的每一个点分配到一个距其最近的簇中,这一步完成后将每个簇的质心更新为该簇所有点的平均值,直至中心不再变化。
算法实现:(Python)
def distEclud(vecA, vecB):#计算两个向量的欧式距离
return sqrt(sum(power(vecA - vecB, 2)))
def randCent(dataSet, k):#随机质心
n = shape(dataSet)[1]
centroids = mat(zeros((k,n)))
for j in range(n):
minJ = min(dataSet[:,j])
rangeJ = float(max(dataSet[:,j]) - minJ)
centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1))
return centroids
def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):
m = shape(dataSet)[0]
clusterAssment = mat(zeros((m,2)))#存储每个点的分配,即簇索引值和误差
centroids = createCent(dataSet, k)
clusterChanged = True
while clusterChanged:
clusterChanged = False
for i in range(m):
minDist = inf; minIndex = -1
for j in range(k):#寻找最近质心
distJI = distMeas(centroids[j,:],dataSet[i,:])
if distJI < minDist:
minDist = distJI; minIndex = j
if clusterAssment[i,0] != minIndex: clusterChanged = True
clusterAssment[i,:] = minIndex,minDist**2
print (centroids)
for cent in range(k):#更新质心的位置
ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]]
centroids[cent,:] = mean(ptsInClust, axis=0)
return centroids, clusterAssment
或者也有博主自己写的一个简易版的python代码:
#k-means
import numpy as np
import random
x=[[1,2],[3,6],[5,2],[1,1]]
k=3
epoch=10
def distance(A,B):
return np.linalg.norm(A-B,axis=1)
center_x=np.random.randint(0,5,size=k)
center_y=np.random.randint(0,5,size=k)
center=np.array(list(zip(center_x,center_y)))
center_old=np.zeros(center.shape)
cluster=np.zeros(len(x))
epoch_i=0
while epoch_i<epoch:
for i in range(len(x)):
dis=distance(i,center)
print(dis)
clu=np.argmin(dis)
print(clu)
cluster[i]=clu
center_old=center
for i in range(k):
p=[x[j] for j in range(len(x)) if cluster[j]==i]
center[i]=np.mean(p,axis=0)
epoch_i+=1
print(cluster)
k-means算法简单、快速,效率高,当数据集是密集的、球状或团状的簇群,且簇与簇之间区别明显时,聚类效果很好。但是它也有不少的问题:
使用范围的约束
k-means,k-means,这个平均值(means)被定义的情况下才能使用。而且对有些分类属性的数据不适用。而且对非凸面形状的簇,或者大小差别很大的簇简直无解。
k是用户指派的?k的选择问题
由于k是用户预先定义的参数,那么如何选择k才是最佳的呢?一种度量聚类效果的指标是误差平方和(Sum of Squared Error,SSE),SSE越小表示数据点越接近它们的质心,聚类的效果相对来说也就最好。所以利用SEE的改进方法就是对生成的簇进行后处理,一是将最大的SSE值的簇分成两个(将这个簇的点过滤出后再进行k为2的k-means),而是合并最小的SSE簇。
或者是人工考虑“肘部法则”来选择,即画出不同k值下的代价函数图,这很像一个人的肘部,观察图形可知,当达到一个点时J下降的非常快,之后会很慢,由此来选择k。
但是当遇到高维度、海量的数据集时,人们往往很难准确地估计出K的大小,所以最好使用迭代自组织数据分析法(Iterative Self-Organizing Data Analysis Technique ,ISODATA)来判断。即当属于某个类别的样本数过少时把这个类别去除,当属于某个类别的样本数过多、分散程度较大时把这个类别分为两个子类别。
只能用欧式距离?度量方式的选择
除了根据实际情况进行选择外,还可以参照支持向量机中核函数的思想,将所有样本映射到另外一个特征空间中再进行聚类。
闵可夫斯基距离
欧几里得距离
曼哈顿距离
切比雪夫距离
马氏距离
余弦相似度
皮尔逊相关系数
汉明距离
杰卡德相似系数
编辑距离
DTW 距离
KL 散度
计算距离时间太多?距离度量的优化
elkan K-Means算法利用了两边之和大于等于第三边,以及两边之差小于第三边的三角形性质,来减少计算量,提高时间。
不抗干扰,被噪声扰动影响太大
初质心不同,结果不同?K-means对初值的敏感
K-means非常容易受初识质心的影响,质心的不同,聚类结果可能千差万别。所以为了更好的效果,可以采用二分k均值聚类,即每次都选择有最大误差的簇进行二分,直至k个簇全部创建成功。
算法实现:(Python)
def biKmeans(dataSet, k, distMeas=distEclud):#二分k均值聚类
m = shape(dataSet)[0]
clusterAssment = mat(zeros((m,2)))
centroid0 = mean(dataSet, axis=0).tolist()[0]
centList =[centroid0]
for j in range(m):
clusterAssment[j,1] = distMeas(mat(centroid0), dataSet[j,:])**2
while (len(centList) < k):
lowestSSE = inf
for i in range(len(centList)):#遍历每一个簇
ptsInCurrCluster = dataSet[nonzero(clusterAssment[:,0].A==i)[0],:]
centroidMat, splitClustAss = kMeans(ptsInCurrCluster, 2, distMeas)
sseSplit = sum(splitClustAss[:,1])#计算划分后的两个簇的误差
sseNotSplit = sum(clusterAssment[nonzero(clusterAssment[:,0].A!=i)[0],1])
print ("sseSplit, and notSplit: ",sseSplit,sseNotSplit)
if (sseSplit + sseNotSplit) < lowestSSE:#误差之和作为本次划分的误差
bestCentToSplit = i
bestNewCents = centroidMat
bestClustAss = splitClustAss.copy()
lowestSSE = sseSplit + sseNotSplit
bestClustAss[nonzero(bestClustAss[:,0].A == 1)[0],0] = len(centList) #更新簇的分配结果。将刚刚划分完的0,1编号的结果簇修改编号,由两个数组过滤器来完成
bestClustAss[nonzero(bestClustAss[:,0].A == 0)[0],0] = bestCentToSplit
print ('the bestCentToSplit is: ',bestCentToSplit)
print ('the len of bestClustAss is: ', len(bestClustAss))
centList[bestCentToSplit] = bestNewCents[0,:].tolist()[0]#新的质心增加到centroids中
centList.append(bestNewCents[1,:].tolist()[0])
clusterAssment[nonzero(clusterAssment[:,0].A == bestCentToSplit)[0],:]= bestClustAss
return mat(centList), clusterAssment
原型聚类
K-means之所以为原型聚类就在于它是通过先对原型进行初始化,然后对原型进行不断的迭代求解。当然了,不同的原型刻画方法,求解方式,将产生不同的算法。对K-means来说,初始的k个样本便是它的原型向量。与K-means一样,学习向量量化(Learning Vector Quantization,LVQ)也是尝试找到一组原型向量来刻画该原型,但LVQ的样本是带有标记的,即通过监督信息来辅助聚类。如果你了解一些神经网络,那么LVQ对于你应该很熟悉,它的核心其实就是“适者生存”的竞争策略,只对竞争获胜的神经元进行参数调整,是自组织映射(Self-organizing Maps,SOM)基于监督信息的一种变体。
而它用于聚类也是如此。大致算法思想是从样本集中随机选取一个有标记的样本(x,y),找到最小的那个原型向量p,判断样本的标记y与原型向量的标记是否一致。若一致则更新为p’ = p + a*(x-p),否则更新为p’ = p - a*(x - p)。 直观上看标记相同则靠拢,不同则远离。
K-means应用:
KMeans参数说明:
KMeans(algorithm=‘auto’, copy_x=True, init=‘k-means++’, max_iter=300,n_clusters=3, n_init=10, n_jobs=1, precompute_distances=‘auto’,random_state=None, tol=0.0001, verbose=0)
algorithm:"full"就是传统的K-Means算法, “elkan”是采用elkan K-Means算法。
copy_x=True:对是否修改数据的一个标记,如果True,即复制了就不会修改数据。
init='k-means++':初始值选择方式
max_iter=300:最大迭代
n_clusters=3:k的值
n_init=10:初始化质心运行次数
n_jobs=1:并行工作数
precompute_distances='auto':是否预计算距离
random_state=None:随机状态条件
tol=0.0001: 容忍度,即kmeans运行准则收敛的条件
verbose=0:冗长模式
MiniBatchKMeans(batch_size=45, compute_labels=True, init=‘k-means++’, init_size=None, max_iter=100, max_no_improvement=10, n_clusters=3,n_init=10, random_state=None, reassignment_ratio=0.01, tol=0.0,verbose=0)
batch_size=45:采样集大小
compute_labels=True:计算标签
init='k-means++':初始值选择方式
init_size=None:质心选择的样本数
max_iter=100:最大迭代
max_no_improvement=10:连续性的无改善聚类效果的最大阈值
n_clusters=3:k的值
n_init=10:初始化质心运行次数
random_state=None:随机状态条件
reassignment_ratio=0.01:某个类别质心被重新赋值的最大次数比例
tol=0.0:容忍度,即kmeans运行准则收敛的条件
verbose=0:冗长模式
比较这两种模式的聚类表现:
import time
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import MiniBatchKMeans, KMeans
from sklearn.metrics.pairwise import pairwise_distances_argmin
from sklearn.datasets.samples_generator import make_blobs
#s生成数据
np.random.seed(0)
batch_size = 45
centers = [[1, 1], [-1, -1], [1, -1]]
n_clusters = len(centers)
X, labels_true = make_blobs(n_samples=3000, centers=centers, cluster_std=0.7)
#Means
k_means = KMeans(init='k-means++', n_clusters=3, n_init=10)
t0 = time.time()
k_means.fit(X)
t_batch = time.time() - t0
#MiniBatchKMeans
mbk = MiniBatchKMeans(init='k-means++', n_clusters=3, batch_size=batch_size,
n_init=10, max_no_improvement=10, verbose=0)
t0 = time.time()
mbk.fit(X)
t_mini_batch = time.time() - t0
fig=plt.figure(figsize=(8, 3))
fig.subplots_adjust(left=0.02, right=0.98, bottom=0.05, top=0.9)
colors = ['#4EACC5', '#FF9C34', '#4E9A06']
k_means_cluster_centers = np.sort(k_means.cluster_centers_, axis=0)
mbk_means_cluster_centers = np.sort(mbk.cluster_centers_, axis=0)
k_means_labels = pairwise_distances_argmin(X, k_means_cluster_centers)
mbk_means_labels = pairwise_distances_argmin(X, mbk_means_cluster_centers)
order = pairwise_distances_argmin(k_means_cluster_centers,
mbk_means_cluster_centers)
# KMeans
ax = fig.add_subplot(1, 3, 1)
for k, col in zip(range(n_clusters), colors):
my_members = k_means_labels == k
cluster_center = k_means_cluster_centers[k]
ax.plot(X[my_members, 0], X[my_members, 1], 'w',
markerfacecolor=col, marker='.')
ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
markeredgecolor='k', markersize=6)
ax.set_title('KMeans')
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8, 'train time: %.2fs\ninertia: %f' % (
t_batch, k_means.inertia_))
# MiniBatchKMeans
ax = fig.add_subplot(1, 3, 2)
for k, col in zip(range(n_clusters), colors):
my_members = mbk_means_labels == order[k]
cluster_center = mbk_means_cluster_centers[order[k]]
ax.plot(X[my_members, 0], X[my_members, 1], 'w',
markerfacecolor=col, marker='.')
ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
markeredgecolor='k', markersize=6)
ax.set_title('MiniBatchKMeans')
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8, 'train time: %.2fs\ninertia: %f' %
(t_mini_batch, mbk.inertia_))
#两者的不同聚类点
different = (mbk_means_labels == 4)
ax = fig.add_subplot(1, 3, 3)
for k in range(n_clusters):
different += ((k_means_labels == k) != (mbk_means_labels == order[k]))
identic = np.logical_not(different)
ax.plot(X[identic, 0], X[identic, 1], 'w',
markerfacecolor='#bbbbbb', marker='.')
ax.plot(X[different, 0], X[different, 1], 'w',
markerfacecolor='m', marker='.')
ax.set_title('Difference')
ax.set_xticks(())
ax.set_yticks(())
plt.show()
可以发现两者聚类结果只有少量的不同。
SPSS应用
详细介绍就不多说了,运行后打开节点可以看到很多的细节。
和Weka一样,画好图后应用就可以得到结果: