程序员的自我修养
Home » Apache Spark » [译文]Running Spark on YARN

[译文]Running Spark on YARN

1条评论8,703次浏览

原文地址:http://spark.apache.org/docs/latest/running-on-yarn.html

Spark从0.6.0版本开始对YARN提供支持,并在后续版本中持续改进。

准备

Spark-on-YARN需要二进制版本的Spark,可以在官网上下载。同样也可以自己编译,参考building with Maven guide

配置

Spark on YARN的大多数参数配置与其它部署模式相同,详细参考configuration page。Spark on YARN的特殊参数如下:

环境变量

SPARK_YARN_USER_ENV:为运行在YARN上的Spark进程添加环境变量。可以是一个以逗号分隔的list,例如:SPARK_YARN_USER_ENV="JAVA_HOME=/jdk64,FOO=bar"

Spark属性

属性名 默认值 含义
spark.yarn.applicationMaster.waitTries 10 设置ApplicationMaster等待Spark master的次数,同时也是等待SparkContext初始化的次数
spark.yarn.submit.file.replication 3 应用程序在HDFS上的备份数,包括Spark jar、app jar和分布式缓存文件等
spark.yarn.preserve.staging.files false 若为true,Spark jar、app jar和分布式缓存文件等会在job结束后删除
spark.yarn.scheduler.heartbeat.interval-ms 5000 Spark application master 和YARN ResourceManager间的心跳检测(单位:ms)
spark.yarn.max.executor.failures 2*numExecutors 执行失败次数超过此值则Spark application执行失败
spark.yarn.historyServer.address (none) Spark history server的地址,如:host.com:18080(不可包括http://)。默认是关闭的,Spark history server是可选的服务。
spark.yarn.executor.memoryOverhead 384 每个executor的堆大小(MB)
spark.yarn.driver.memoryOverhead 384 每个driver的堆大小(MB)

默认情况下,Spark on YARN将使用本地的Spark jar,但Spark jar也能放在HDFS上。这样YARN就能将jar缓存在每个节点上,避免了每次运行应用时重新分发jar。将Jar放在HDFS可用命令:export SPARK_JAR=hdfs:///some/path

启动Spark on YARN

确保HADOOP_CONF_DIRYARN_CONF_DIR指向的路径含有(client side)hadoop集群的配置文件。这些配置文用于写HDFS和连接YARN ResourceManager。有两种部署模式可以在YARN上启动Spark应用:yarn-cluster模式下,driver运行在application master进程下,而application master由YARN来管理,client将在application初始化后关闭;yarn-client模式下,driver运行在client进程下,application master仅仅用来向YARN申请资源。

Spark standalone和Mesos模式中master地址由master参数指出,YARN模式与他们不同,YARN模式下ResourceManager的地址由hadoop配置文件中获取。因此master参数简单的为“yarn-client”或“yarn-cluster”。

YARN模式下启动Spark应用:

例如:

上述命令启动了一个YARN client程序,该程序又启动了一个默认的Application Master。接着SparkPi将会以Application Master的子线程形式运行。client将会周期性的更新Application Master的状态并将之显示在控制台。当application运行完毕client将退出。参考下面的“Viewing Logs”章节来学习如何查看driver和executor的log日志。

以yarn-client模式启动Spark application,只需将“yarn-cluster”替换为“yarn-client”。Spark shell如下:

添加其它Jar包

在yarn-cluster模式下,driver运行在不同的机器上,所以client本地的文件对于SparkContext.addJar将是不可获取的。可以通过--jars选项来让SparkContext.addJar获取到这些文件:

调试程序

在YARN的术语里,executor和application master在“容器”里运行。当应用结束时YARN有两种处理容器log日志的模式。如果log聚合打开(通过yarn.log-aggregation-enable配置),容器log日志将从本地机器拷贝到HDFS上。这些日志可以从集群的任何地方进行查看,相应的命令为:

该命令将会打印出appID对应的应用的所有容器log日志。

当log聚合关闭时,log日志将保留在每台机器的本地路径下(由YARN_APP_LOGS_DIR参数指定),通常是/tmp/logs或$HADOOP_HOME/logs/userlogs,具体的路径根据不同的hadoop版本和安装会有区别。查看某容器日志必须登录到其所在的机器的对应目录才可查看。子文件夹的名称以应用ID和容器ID来命名,并存放其对于的log日志。

若需要检查每个容器的启动环境,将yarn.nodemanager.delete.debug-delay-sec的值设成一个较大的值(如36000),这样就可以在容器启动的机器上通过访问yarn.nodemanager.local-dirs对于的目录来达到访问应用缓存的目的。该目录含有每个容器的启动脚本,jar和环境变量。这个过程对于调试特别是classpath问题十分有帮助。(值得一提的是该功能需要集群的管理员权限,并需要重启集群来生效配置。所以对于托管型的集群是不适用的)。

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
分类:Apache Spark
标签:,
1条评论
  1. Misty说道:

    Can I merely say that of a relief to discover someone that really untersdands what theyre speaking about online. You definitely learn how to bring the concern to light and ensure it is essential. A many more individuals need to have to read this along with comprehend this specific side with the story. I cannot believe youre not more popular as you certainly hold the gift.

发表评论


profile
  • 文章总数:79篇
  • 评论总数:331条
  • 分类总数:31个
  • 标签总数:44个
  • 运行时间:1072天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • 增达网: 受教了!呵呵!
  • Anonymous: :!: :smile: :oops: :grin: :eek: :shock:
  • 27: :razz: dsa会报错,rsa不会
  • Anonymous: 看错了 忽略我
  • Anonymous: UserSideCF这个类在哪里
  • 晴子: 在主节点初始化CM5数据库的时候报错误:Verifying that we can write to /opt/cm-5.9.0/etc/cloudera-scm -server log4j:ERROR Could not...
  • zhangnew: 就4题 :?:
  • linxh: “ 但要是遇到预先并不知道数组的长度而又需要获取正确的(或者称之 为原始的)split长度时,该如何处理呢。。? ” 印象中可以split函数参数传-1?
  • linxh: 班门弄斧一下: ssh host cmd 和直接ssh上后cmd结果不一样是因为ssh直接运行远程命令 是非交互非登录模式与ssh上去得到一个登录交互式Shell二 者加载的环境变量不一样。
  • 匿名: 其实文本分类和数字分类是一样的,只是文本分类需要多一个步骤, 就是计算它的tf-idf值将其转换为double类型
  • yurnom: 可能苹果最近又改变了返回值吧,最近没做测试了。 BadDeviceToken一般测试环境和正式环境弄错的情况 下会出现。
  • Anonymous: :razz: 博主,良心贴啊, 最近也在弄apns推送。 有个问题想请教你一下啊。 你博客中写的 Unregistered 错误,有准确的说明吗, 我看你博客中写的:...
  • 一波清泉: 回复邮箱: 1004161699@qq.com 多谢
  • Anonymous: 17/02/09 01:15:02 WARN Utils: Service ‘SparkUI’ could not bind on port 4040. Attempting port...
  • pacificLee: :twisted:
  • 小码: 为什么没有后面的呢,只有前10个
  • Anonymous: :lol:
  • Anonymous: :razz: 楼主是属于会聊天的。 我想问,sqoop发了几个版本了,应该没这些问题了吧。
  • Anonymous: Config.kafkaConfig.kafkaGroupI d 这个是指自己配置的group id 还是从 import org.apache.kafka.common.config .Config 这个类...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 那个方法是在 spark-streaming_2.10 中 kafka...