摸鱼大数据——Spark基础——Spark On Yarn环境配置和部署
import org.apache.spark.{SparkConf, SparkContext}
object SparkOnYarnApp {
def main(args: Array[String]): Unit = {
// 配置Spark
val conf = new SparkConf()
.setAppName("SparkOnYarnApp")
.setMaster("yarn") // 设置Spark运行模式为YARN
.set("spark.executor.instances", "5") // 设置Executor的数量
.set("spark.executor.cores", "2") // 设置每个Executor的核心数
.set("spark.executor.memory", "4g") // 设置每个Executor的内存
.set("spark.yarn.queue", "default") // 设置YARN队列
// 创建SparkContext
val sc = new SparkContext(conf)
// 执行Spark作业
val data = sc.parallelize(1 to 100)
val count = data.filter(_ % 2 == 0).count() // 计算1到100中偶数的个数
println(s"Even numbers count: $count")
// 停止SparkContext
sc.stop()
}
}
这段代码演示了如何配置Spark以在YARN上运行,并创建一个简单的Spark应用程序,计算1到100中偶数的个数。在实际部署时,你需要确保YARN集群正常运行,并且Spark的jar包已经上传到HDFS上以供YARN使用。
评论已关闭