原文地址:http://spark.apache.org/docs/latest/running-on-yarn.html
Spark从0.6.0版本开始对YARN提供支持,并在后续版本中持续改进。
准备
Spark-on-YARN需要二进制版本的Spark,可以在官网上下载。同样也可以自己编译,参考building with Maven guide。
配置
Spark on YARN的大多数参数配置与其它部署模式相同,详细参考configuration page。Spark on YARN的特殊参数如下:
环境变量
SPARK_YARN_USER_ENV:为运行在YARN上的Spark进程添加环境变量。可以是一个以逗号分隔的list,例如:
Spark属性
属性名 | 默认值 | 含义 |
---|---|---|
spark.yarn.applicationMaster.waitTries | 10 | 设置ApplicationMaster等待Spark master的次数,同时也是等待SparkContext初始化的次数 |
spark.yarn.submit.file.replication | 3 | 应用程序在HDFS上的备份数,包括Spark jar、app jar和分布式缓存文件等 |
spark.yarn.preserve.staging.files | false | 若为true,Spark jar、app jar和分布式缓存文件等会在job结束后删除 |
spark.yarn.scheduler.heartbeat.interval-ms | 5000 | Spark application master 和YARN ResourceManager间的心跳检测(单位:ms) |
spark.yarn.max.executor.failures | 2*numExecutors | 执行失败次数超过此值则Spark application执行失败 |
spark.yarn.historyServer.address | (none) | Spark history server的地址,如:host.com:18080(不可包括http://)。默认是关闭的,Spark history server是可选的服务。 |
spark.yarn.executor.memoryOverhead | 384 | 每个executor的堆大小(MB) |
spark.yarn.driver.memoryOverhead | 384 | 每个driver的堆大小(MB) |
默认情况下,Spark on YARN将使用本地的Spark jar,但Spark jar也能放在HDFS上。这样YARN就能将jar缓存在每个节点上,避免了每次运行应用时重新分发jar。将Jar放在HDFS可用命令:
启动Spark on YARN
确保
Spark standalone和Mesos模式中master地址由
YARN模式下启动Spark应用:
1 |
./bin/spark-submit --class path.to.your.Class --master yarn-cluster [options] <app jar> [app options] |
例如:
1 2 3 4 5 6 7 8 |
$ ./bin/spark-submit --class org.apache.spark.examples.SparkPi \ --master yarn-cluster \ --num-executors 3 \ --driver-memory 4g \ --executor-memory 2g \ --executor-cores 1 \ lib/spark-examples*.jar \ 10 |
上述命令启动了一个YARN client程序,该程序又启动了一个默认的Application Master。接着SparkPi将会以Application Master的子线程形式运行。client将会周期性的更新Application Master的状态并将之显示在控制台。当application运行完毕client将退出。参考下面的“Viewing Logs”章节来学习如何查看driver和executor的log日志。
以yarn-client模式启动Spark application,只需将“yarn-cluster”替换为“yarn-client”。Spark shell如下:
1 |
$ ./bin/spark-shell --master yarn-client |
添加其它Jar包
在yarn-cluster模式下,driver运行在不同的机器上,所以client本地的文件对于SparkContext.addJar将是不可获取的。可以通过--jars选项来让SparkContext.addJar获取到这些文件:
1 2 3 4 5 |
$ ./bin/spark-submit --class my.main.Class \ --master yarn-cluster \ --jars my-other-jar.jar,my-other-other-jar.jar my-main-jar.jar app_arg1 app_arg2 |
调试程序
在YARN的术语里,executor和application master在“容器”里运行。当应用结束时YARN有两种处理容器log日志的模式。如果log聚合打开(通过yarn.log-aggregation-enable配置),容器log日志将从本地机器拷贝到HDFS上。这些日志可以从集群的任何地方进行查看,相应的命令为:
1 |
yarn logs -applicationId <app ID> |
该命令将会打印出appID对应的应用的所有容器log日志。
当log聚合关闭时,log日志将保留在每台机器的本地路径下(由YARN_APP_LOGS_DIR参数指定),通常是/tmp/logs或$HADOOP_HOME/logs/userlogs,具体的路径根据不同的hadoop版本和安装会有区别。查看某容器日志必须登录到其所在的机器的对应目录才可查看。子文件夹的名称以应用ID和容器ID来命名,并存放其对于的log日志。
若需要检查每个容器的启动环境,将yarn.nodemanager.delete.debug-delay-sec的值设成一个较大的值(如36000),这样就可以在容器启动的机器上通过访问yarn.nodemanager.local-dirs对于的目录来达到访问应用缓存的目的。该目录含有每个容器的启动脚本,jar和环境变量。这个过程对于调试特别是classpath问题十分有帮助。(值得一提的是该功能需要集群的管理员权限,并需要重启集群来生效配置。所以对于托管型的集群是不适用的)。
Can I merely say that of a relief to discover someone that really untersdands what theyre speaking about online. You definitely learn how to bring the concern to light and ensure it is essential. A many more individuals need to have to read this along with comprehend this specific side with the story. I cannot believe youre not more popular as you certainly hold the gift.