程序员的自我修养
Home » Apache Spark » [译文]Running Spark on YARN

[译文]Running Spark on YARN

1条评论9,019次浏览

原文地址:http://spark.apache.org/docs/latest/running-on-yarn.html

Spark从0.6.0版本开始对YARN提供支持,并在后续版本中持续改进。

准备

Spark-on-YARN需要二进制版本的Spark,可以在官网上下载。同样也可以自己编译,参考building with Maven guide

配置

Spark on YARN的大多数参数配置与其它部署模式相同,详细参考configuration page。Spark on YARN的特殊参数如下:

环境变量

SPARK_YARN_USER_ENV:为运行在YARN上的Spark进程添加环境变量。可以是一个以逗号分隔的list,例如:SPARK_YARN_USER_ENV="JAVA_HOME=/jdk64,FOO=bar"

Spark属性

属性名 默认值 含义
spark.yarn.applicationMaster.waitTries 10 设置ApplicationMaster等待Spark master的次数,同时也是等待SparkContext初始化的次数
spark.yarn.submit.file.replication 3 应用程序在HDFS上的备份数,包括Spark jar、app jar和分布式缓存文件等
spark.yarn.preserve.staging.files false 若为true,Spark jar、app jar和分布式缓存文件等会在job结束后删除
spark.yarn.scheduler.heartbeat.interval-ms 5000 Spark application master 和YARN ResourceManager间的心跳检测(单位:ms)
spark.yarn.max.executor.failures 2*numExecutors 执行失败次数超过此值则Spark application执行失败
spark.yarn.historyServer.address (none) Spark history server的地址,如:host.com:18080(不可包括http://)。默认是关闭的,Spark history server是可选的服务。
spark.yarn.executor.memoryOverhead 384 每个executor的堆大小(MB)
spark.yarn.driver.memoryOverhead 384 每个driver的堆大小(MB)

默认情况下,Spark on YARN将使用本地的Spark jar,但Spark jar也能放在HDFS上。这样YARN就能将jar缓存在每个节点上,避免了每次运行应用时重新分发jar。将Jar放在HDFS可用命令:export SPARK_JAR=hdfs:///some/path

启动Spark on YARN

确保HADOOP_CONF_DIRYARN_CONF_DIR指向的路径含有(client side)hadoop集群的配置文件。这些配置文用于写HDFS和连接YARN ResourceManager。有两种部署模式可以在YARN上启动Spark应用:yarn-cluster模式下,driver运行在application master进程下,而application master由YARN来管理,client将在application初始化后关闭;yarn-client模式下,driver运行在client进程下,application master仅仅用来向YARN申请资源。

Spark standalone和Mesos模式中master地址由master参数指出,YARN模式与他们不同,YARN模式下ResourceManager的地址由hadoop配置文件中获取。因此master参数简单的为“yarn-client”或“yarn-cluster”。

YARN模式下启动Spark应用:

例如:

上述命令启动了一个YARN client程序,该程序又启动了一个默认的Application Master。接着SparkPi将会以Application Master的子线程形式运行。client将会周期性的更新Application Master的状态并将之显示在控制台。当application运行完毕client将退出。参考下面的“Viewing Logs”章节来学习如何查看driver和executor的log日志。

以yarn-client模式启动Spark application,只需将“yarn-cluster”替换为“yarn-client”。Spark shell如下:

添加其它Jar包

在yarn-cluster模式下,driver运行在不同的机器上,所以client本地的文件对于SparkContext.addJar将是不可获取的。可以通过--jars选项来让SparkContext.addJar获取到这些文件:

调试程序

在YARN的术语里,executor和application master在“容器”里运行。当应用结束时YARN有两种处理容器log日志的模式。如果log聚合打开(通过yarn.log-aggregation-enable配置),容器log日志将从本地机器拷贝到HDFS上。这些日志可以从集群的任何地方进行查看,相应的命令为:

该命令将会打印出appID对应的应用的所有容器log日志。

当log聚合关闭时,log日志将保留在每台机器的本地路径下(由YARN_APP_LOGS_DIR参数指定),通常是/tmp/logs或$HADOOP_HOME/logs/userlogs,具体的路径根据不同的hadoop版本和安装会有区别。查看某容器日志必须登录到其所在的机器的对应目录才可查看。子文件夹的名称以应用ID和容器ID来命名,并存放其对于的log日志。

若需要检查每个容器的启动环境,将yarn.nodemanager.delete.debug-delay-sec的值设成一个较大的值(如36000),这样就可以在容器启动的机器上通过访问yarn.nodemanager.local-dirs对于的目录来达到访问应用缓存的目的。该目录含有每个容器的启动脚本,jar和环境变量。这个过程对于调试特别是classpath问题十分有帮助。(值得一提的是该功能需要集群的管理员权限,并需要重启集群来生效配置。所以对于托管型的集群是不适用的)。

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
分类:Apache Spark
标签:,
1条评论
  1. Misty说道:

    Can I merely say that of a relief to discover someone that really untersdands what theyre speaking about online. You definitely learn how to bring the concern to light and ensure it is essential. A many more individuals need to have to read this along with comprehend this specific side with the story. I cannot believe youre not more popular as you certainly hold the gift.

发表评论


profile
  • 文章总数:79篇
  • 评论总数:280条
  • 分类总数:31个
  • 标签总数:44个
  • 运行时间:1130天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • 张瑞昌: 有很多,比较常见的是Jacob迭代法,一次迭代O(n^3), 迭代次数不清楚。 如果是手动算的话按照定义求就可以了
  • Anonymous: :mrgreen:
  • lc277: 你好 我想问下一般删除节点要多久,要删除的datanode大概用了 1t,解除授权已经30多小时还没完成,请问是出现什么问题了吗 麻烦告诉下谢谢 qq1844554123
  • Anonymous: 你好 我想问下一般删除节点要多久,要删除的datanode大概用了 1t,解除授权已经30多小时还没完成,请问是出现什么问题了吗
  • Anonymous: :smile: :grin: :eek:
  • 李雪璇: 想要完整代码,可以帮忙发给我吗
  • Anonymous: 请问一下,那个 user的推荐结果楼主查看了么? 为什么输入数据 最高是五分,输出结果都是7分8分啥的?怎么设置输出的分数的最 大值?
  • Anonymous: 那个 user的推荐结果楼主查看了么? 为什么输入数据 最高是五分,输出结果都是7分8分啥的?
  • Anonymous: stopGracefullyOnShutdown在yarn- client模式下我测试的无效,你的呢
  • Anonymous: 另外,import的lib包能否发个列表.
  • Anonymous: 部分程序已经无法使用, 另外 你的import代码 也应该放上来哈
  • wzq: 赞
  • 增达网: 受教了!呵呵!
  • Anonymous: :!: :smile: :oops: :grin: :eek: :shock:
  • 27: :razz: dsa会报错,rsa不会
  • Anonymous: 看错了 忽略我
  • Anonymous: UserSideCF这个类在哪里
  • 晴子: 在主节点初始化CM5数据库的时候报错误:Verifying that we can write to /opt/cm-5.9.0/etc/cloudera-scm -server log4j:ERROR Could not...
  • zhangnew: 就4题 :?:
  • linxh: “ 但要是遇到预先并不知道数组的长度而又需要获取正确的(或者称之 为原始的)split长度时,该如何处理呢。。? ” 印象中可以split函数参数传-1?