python sklearn里有kmeans算法吗

如题所述

  K-Means是常用的聚类算法,与其他聚类算法相比,其时间复杂度低,聚类的效果也还不错,这里简单介绍一下k-means算法,下图是一个手写体数据集聚类的结果。
  基本思想
  k-means算法需要事先指定簇的个数k,算法开始随机选择k个记录点作为中心点,然后遍历整个数据集的各条记录,将每条记录归到离它最近的中心点所在的簇中,之后以各个簇的记录的均值中心点取代之前的中心点,然后不断迭代,直到收敛,算法描述如下:
  上面说的收敛,可以看出两方面,一是每条记录所归属的簇不再变化,二是优化目标变化不大。算法的时间复杂度是O(K*N*T),k是中心点个数,N数据集的大小,T是迭代次数。
  优化目标
  k-means的损失函数是平方误差:
  RSSk=∑x∈ωk|x?u(ωk)|2
  RSS=∑k=1KRSSk
  其中$\omega _k$表示第k个簇,$u(\omega _k)$表示第k个簇的中心点,$RSS_k$是第k个簇的损失函数,$RSS$表示整体的损失函数。优化目标就是选择恰当的记录归属方案,使得整体的损失函数最小。
  中心点的选择
  k-meams算法的能够保证收敛,但不能保证收敛于全局最优点,当初始中心点选取不好时,只能达到局部最优点,整个聚类的效果也会比较差。可以采用以下方法:k-means中心点
  1、选择彼此距离尽可能远的那些点作为中心点;
  2、先采用层次进行初步聚类输出k个簇,以簇的中心点的作为k-means的中心点的输入。
  3、多次随机选择中心点训练k-means,选择效果最好的聚类结果
  k值的选取
  k-means的误差函数有一个很大缺陷,就是随着簇的个数增加,误差函数趋近于0,最极端的情况是每个记录各为一个单独的簇,此时数据记录的误差为0,但是这样聚类结果并不是我们想要的,可以引入结构风险对模型的复杂度进行惩罚:
  K=mink[RSSmin(k)+λk]
  $\lambda$是平衡训练误差与簇的个数的参数,但是现在的问题又变成了如何选取$\lambda$了,有研究[参考文献1]指出,在数据集满足高斯分布时,$\lambda=2m$,其中m是向量的维度。
  另一种方法是按递增的顺序尝试不同的k值,同时画出其对应的误差值,通过寻求拐点来找到一个较好的k值,详情见下面的文本聚类的例子。
  k-means文本聚类
  我爬取了36KR的部分文章,共1456篇,分词后使用sklearn进行k-means聚类。分词后数据记录如下:
  使用TF-IDF进行特征词的选取,下图是中心点的个数从3到80对应的误差值的曲线:
  从上图中在k=10处出现一个较明显的拐点,因此选择k=10作为中心点的个数,下面是10个簇的数据集的个数。
  {0: 152, 1: 239, 2: 142, 3: 61, 4: 119, 5: 44, 6: 71, 7: 394, 8: 141, 9: 93}
  簇标签生成
  聚类完成后,我们需要一些标签来描述簇,聚类完后,相当于每个类都用一个类标,这时候可以用TFIDF、互信息、卡方等方法来选取特征词作为标签。关于卡方和互信息特征提取可以看我之前的文章文本特征选择,下面是10个类的tfidf标签结果。
  Cluster 0: 商家 商品 物流 品牌 支付 导购 网站 购物 平台 订单
  Cluster 1: 投资 融资 美元 公司 资本 市场 获得 国内 中国 去年
  Cluster 2: 手机 智能 硬件 设备 电视 运动 数据 功能 健康 使用
  Cluster 3: 数据 平台 市场 学生 app 移动 信息 公司 医生 教育
  Cluster 4: 企业 招聘 人才 平台 公司 it 移动 网站 安全 信息
  Cluster 5: 社交 好友 交友 宠物 功能 活动 朋友 基于 分享 游戏
  Cluster 6: 记账 理财 贷款 银行 金融 p2p 投资 互联网 基金 公司
  Cluster 7: 任务 协作 企业 销售 沟通 工作 项目 管理 工具 成员
  Cluster 8: 旅行 旅游 酒店 预订 信息 城市 投资 开放 app 需求
  Cluster 9: 视频 内容 游戏 音乐 图片 照片 广告 阅读 分享 功能
  实现代码
  #!--encoding=utf-8
  from __future__ import print_function
  from sklearn.feature_extraction.text import TfidfVectorizer
  from sklearn.feature_extraction.text import HashingVectorizer
  import matplotlib.pyplot as plt
  from sklearn.cluster import KMeans, MiniBatchKMeans
  def loadDataset():
  '''导入文本数据集'''
  f = open('36krout.txt','r')
  dataset = []
  lastPage = None
  for line in f.readlines():
  if '< title >' in line and '< / title >' in line:
  if lastPage:
  dataset.append(lastPage)
  lastPage = line
  else:
  lastPage += line
  if lastPage:
  dataset.append(lastPage)
  f.close()
  return dataset
  def transform(dataset,n_features=1000):
  vectorizer = TfidfVectorizer(max_df=0.5, max_features=n_features, min_df=2,use_idf=True)
  X = vectorizer.fit_transform(dataset)
  return X,vectorizer
  def train(X,vectorizer,true_k=10,minibatch = False,showLable = False):
  #使用采样数据还是原始数据训练k-means,
  if minibatch:
  km = MiniBatchKMeans(n_clusters=true_k, init='k-means++', n_init=1,
  init_size=1000, batch_size=1000, verbose=False)
  else:
  km = KMeans(n_clusters=true_k, init='k-means++', max_iter=300, n_init=1,
  verbose=False)
  km.fit(X)
  if showLable:
  print("Top terms per cluster:")
  order_centroids = km.cluster_centers_.argsort()[:, ::-1]
  terms = vectorizer.get_feature_names()
  print (vectorizer.get_stop_words())
  for i in range(true_k):
  print("Cluster %d:" % i, end='')
  for ind in order_centroids[i, :10]:
  print(' %s' % terms[ind], end='')
  print()
  result = list(km.predict(X))
  print ('Cluster distribution:')
  print (dict([(i, result.count(i)) for i in result]))
  return -km.score(X)
  def test():
  '''测试选择最优参数'''
  dataset = loadDataset()
  print("%d documents" % len(dataset))
  X,vectorizer = transform(dataset,n_features=500)
  true_ks = []
  scores = []
  for i in xrange(3,80,1):
  score = train(X,vectorizer,true_k=i)/len(dataset)
  print (i,score)
  true_ks.append(i)
  scores.append(score)
  plt.figure(figsize=(8,4))
  plt.plot(true_ks,scores,label="error",color="red",linewidth=1)
  plt.xlabel("n_features")
  plt.ylabel("error")
  plt.legend()
  plt.show()
  def out():
  '''在最优参数下输出聚类结果'''
  dataset = loadDataset()
  X,vectorizer = transform(dataset,n_features=500)
  score = train(X,vectorizer,true_k=10,showLable=True)/len(dataset)
  print (score)
  #test()
  out()
温馨提示:内容为网友见解,仅供参考
无其他回答

机器学习之SKlearn(scikit-learn)的K-means聚类算法
对于聚类算法,sklearn提供了多种选项,包括K-means、谱聚类、均值漂移等。K-means算法是聚类中最常用的一种,它通过将数据点分组到由算法确定的“中心”(簇)中,实现数据集的高效聚类。了解并掌握sklearn中的各种算法和模块,将有助于开发者更高效地解决实际问题,提高机器学习项目的成功率。

机器学习库sklearn的K-Means聚类算法的使用方法
在机器学习领域,sklearn库的K-Means聚类算法因其简便易用而广受欢迎。之前我们已分享了关于K-Means的基本原理和应用,但有读者希望直接使用现成函数进行计算。今天,我们将专注于如何在sklearn库中调用K-Means函数,以进行社会科学数据的聚类分析。sklearn是基于numpy、scipy等库构建的Python机器学习库,功...

python:使用机器学习算法对卫星遥感影像进行分类
首先,导入所需的包,为后续操作做准备。在本例中,主要使用的是sklearn库中的k-means算法,代码简洁明了。接着,读取数据,这里使用的是栅格数据(如.tif格式),通过rasterio包实现。读取后,进行数据预处理,包括数据重塑和转置,以适应机器学习所需的表格格式。建立模型,利用sklearn库中的k-means算...

十四.K均值(K-means)聚类原理和sklearn实现
在Python的sklearn库中,提供了k-means算法的实现,开发者可以利用这个工具进行数据的聚类分析。

在python中如何使用kmeans得出SSE
用sklearn包,里面有你要的kmeans算法,然后找到聚类评判指标,也有你要的SSE。

社交媒体话题文本分词后用sklearn的kmeans算法做聚类分析
实验过程包括使用sklearn的K-Means算法进行文本聚类分析。我们分别进行了人工设置K值为3和使用“手肘法”确定最佳K值的实验。通过“手肘法”,我们观察到最佳的K值为8。实验中,我们还对聚类结果进行了可视化,并展示了每个簇群去重后的关键词,以更直观地理解不同簇群之间的差异。总结而言,本文通过使用实际...

sklearnkmeans距离计算怎么修改
明确答案:在sklearn的KMeans算法中,距离计算可以通过修改距离度量方式来实现。默认的度量方式是欧氏距离,但也可以修改为其他距离度量方法,如曼哈顿距离、马氏距离等。修改方式主要是通过设置`metric`参数。具体步骤如下:详细解释:1. 了解默认距离计算方式:在sklearn的KMeans算法中,聚类是通过计算样本点...

Python中的聚类算法简介
例如,在Python中,我们可以使用scikit-learn库的KMeans函数,如使用k-means ++算法优化初始质心,以提高聚类效果。结果通常以四类簇的形式呈现,如图所示,k-means ++算法能更好地捕捉初始簇的边界。相比之下,层次聚类则是通过逐个合并距离最近的点,形成递增的簇,直至所有点单独成簇。这种方法生成的...

...聚类算法——K-Means原理详解和实操应用(R&Python)
通过在软件中实现K-Means算法,我们可以快速地进行聚类分析,无论是使用Python的sklearn库,还是R语言,都能方便地进行数据的预处理、建模和结果的分析。总结来说,K-Means聚类算法因其原理简单、执行有效、聚类速度快、结果可解释性强等优点,广泛应用于各种领域。然而,算法也存在一些缺陷,如对K值的选择...

Python实现KMeans(K-means Clustering Algorithm)
KMeans算法实现 为了便于理解,本文提供一个简化版的KMeans算法实现,不使用sklearn直接封装的模型,而是手动实现KMeans的核心逻辑,以帮助初学者更好地掌握算法流程。1. 导包 主要使用Python内置库进行实现。2. 定义随机数种子 确保实验结果的可重复性,对于随机初始化和选择训练样本具有重要意义。3. 定义...

相似回答