分享

蜗龙徒行

 陈永正的图书馆 2017-06-22

在终端打开Spark-shell

然后在Scala编辑模式下依次输入以下命令:

//导入算法执行所需函数库

import org.apache.spark.mllib.clustering.KMeans

import org.apache.spark.mllib.linalg.Vectors

// 加载并分析数据

val data = sc.textFile("data/mllib/kmeans_data.txt")

val parsedData = data.map(s => Vectors.dense(s.split(' ').map(_.toDouble))).cache()

// 用算法将数据聚类成两个簇,用数据集来训练kmeans算法
val numClusters = 2

val numIterations = 20

val clusters = KMeans.train(parsedData, numClusters, numIterations)

//提取聚类结果

val clusterCenters = clusters.clusterCenters

//聚类结果标签

val labels=clusters.predict(parsedData)

//保存聚类结果
labels.saveAsTextFile("/output/kmeansTest/result")

// 误差分析,评价聚类的计算在规定的误差平方和
val WSSSE = clusters.computeCost(parsedData)
println("Within Set Sum of Squared Errors = " + WSSSE)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多