【Spark ML系列】Frequent Pattern Mining频繁挖掘算法功能用法示例源码论文详解
import org.apache.spark.ml.fpm.{AssociationRules, FPGrowth}
import org.apache.spark.sql.SparkSession
object FPGrowthExample {
def main(args: Array[String]) {
val spark = SparkSession.builder.appName("FPGrowthExample").getOrCreate()
// 准备数据集
val data = spark.createDataFrame(Seq(
(1, "a"),
(2, "a b"),
(3, "a b c"),
(4, "b"),
(5, "a b c")
)).toDF("id", "items")
// 转换数据集到适合FPGrowth算法的格式
val rowRdd = data.rdd.map(row => row.getAs[Seq[String]](1).map(_.toString))
// 使用FPGrowth算法挖掘频繁项集
val fpg = new FPGrowth()
.setItemsCol("items")
.setMinSupport(0.5) // 设置最小支持度为50%
val model = fpg.fit(data)
// 查看频繁项集
val frequentItemsets = model.freqItemsets.show()
// 生成关联规则
val associationRules = new AssociationRules()
.setItemsCol("items")
.setMetricsCol("confidence")
val rules = associationRules.run(model)
rules.show()
spark.stop()
}
}
这段代码展示了如何在Spark ML库中使用FPGrowth算法进行频繁项集挖掘,并生成关联规则。首先,我们创建了一个Spark数据框架,并准备了一个序列类型的列作为算法的输入。接着,我们使用FPGrowth模型对数据进行拟合,并设置了最小支持度。最后,我们通过调用freqItemsets
方法来查看挖掘出的频繁项集,并使用AssociationRules
类生成关联规则,并展示结果。这个例子简单且直接地展示了FPGrowth算法的使用方法。
评论已关闭