程序员的自我修养
Home » Apache Spark » [译文]Running Spark on YARN

[译文]Running Spark on YARN

1条评论7,966次浏览

原文地址:http://spark.apache.org/docs/latest/running-on-yarn.html

Spark从0.6.0版本开始对YARN提供支持,并在后续版本中持续改进。

准备

Spark-on-YARN需要二进制版本的Spark,可以在官网上下载。同样也可以自己编译,参考building with Maven guide

配置

Spark on YARN的大多数参数配置与其它部署模式相同,详细参考configuration page。Spark on YARN的特殊参数如下:

环境变量

SPARK_YARN_USER_ENV:为运行在YARN上的Spark进程添加环境变量。可以是一个以逗号分隔的list,例如:SPARK_YARN_USER_ENV="JAVA_HOME=/jdk64,FOO=bar"

Spark属性

属性名 默认值 含义
spark.yarn.applicationMaster.waitTries 10 设置ApplicationMaster等待Spark master的次数,同时也是等待SparkContext初始化的次数
spark.yarn.submit.file.replication 3 应用程序在HDFS上的备份数,包括Spark jar、app jar和分布式缓存文件等
spark.yarn.preserve.staging.files false 若为true,Spark jar、app jar和分布式缓存文件等会在job结束后删除
spark.yarn.scheduler.heartbeat.interval-ms 5000 Spark application master 和YARN ResourceManager间的心跳检测(单位:ms)
spark.yarn.max.executor.failures 2*numExecutors 执行失败次数超过此值则Spark application执行失败
spark.yarn.historyServer.address (none) Spark history server的地址,如:host.com:18080(不可包括http://)。默认是关闭的,Spark history server是可选的服务。
spark.yarn.executor.memoryOverhead 384 每个executor的堆大小(MB)
spark.yarn.driver.memoryOverhead 384 每个driver的堆大小(MB)

默认情况下,Spark on YARN将使用本地的Spark jar,但Spark jar也能放在HDFS上。这样YARN就能将jar缓存在每个节点上,避免了每次运行应用时重新分发jar。将Jar放在HDFS可用命令:export SPARK_JAR=hdfs:///some/path

启动Spark on YARN

确保HADOOP_CONF_DIRYARN_CONF_DIR指向的路径含有(client side)hadoop集群的配置文件。这些配置文用于写HDFS和连接YARN ResourceManager。有两种部署模式可以在YARN上启动Spark应用:yarn-cluster模式下,driver运行在application master进程下,而application master由YARN来管理,client将在application初始化后关闭;yarn-client模式下,driver运行在client进程下,application master仅仅用来向YARN申请资源。

Spark standalone和Mesos模式中master地址由master参数指出,YARN模式与他们不同,YARN模式下ResourceManager的地址由hadoop配置文件中获取。因此master参数简单的为“yarn-client”或“yarn-cluster”。

YARN模式下启动Spark应用:

例如:

上述命令启动了一个YARN client程序,该程序又启动了一个默认的Application Master。接着SparkPi将会以Application Master的子线程形式运行。client将会周期性的更新Application Master的状态并将之显示在控制台。当application运行完毕client将退出。参考下面的“Viewing Logs”章节来学习如何查看driver和executor的log日志。

以yarn-client模式启动Spark application,只需将“yarn-cluster”替换为“yarn-client”。Spark shell如下:

添加其它Jar包

在yarn-cluster模式下,driver运行在不同的机器上,所以client本地的文件对于SparkContext.addJar将是不可获取的。可以通过--jars选项来让SparkContext.addJar获取到这些文件:

调试程序

在YARN的术语里,executor和application master在“容器”里运行。当应用结束时YARN有两种处理容器log日志的模式。如果log聚合打开(通过yarn.log-aggregation-enable配置),容器log日志将从本地机器拷贝到HDFS上。这些日志可以从集群的任何地方进行查看,相应的命令为:

该命令将会打印出appID对应的应用的所有容器log日志。

当log聚合关闭时,log日志将保留在每台机器的本地路径下(由YARN_APP_LOGS_DIR参数指定),通常是/tmp/logs或$HADOOP_HOME/logs/userlogs,具体的路径根据不同的hadoop版本和安装会有区别。查看某容器日志必须登录到其所在的机器的对应目录才可查看。子文件夹的名称以应用ID和容器ID来命名,并存放其对于的log日志。

若需要检查每个容器的启动环境,将yarn.nodemanager.delete.debug-delay-sec的值设成一个较大的值(如36000),这样就可以在容器启动的机器上通过访问yarn.nodemanager.local-dirs对于的目录来达到访问应用缓存的目的。该目录含有每个容器的启动脚本,jar和环境变量。这个过程对于调试特别是classpath问题十分有帮助。(值得一提的是该功能需要集群的管理员权限,并需要重启集群来生效配置。所以对于托管型的集群是不适用的)。

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
分类:Apache Spark
标签:,
1条评论
  1. Misty说道:

    Can I merely say that of a relief to discover someone that really untersdands what theyre speaking about online. You definitely learn how to bring the concern to light and ensure it is essential. A many more individuals need to have to read this along with comprehend this specific side with the story. I cannot believe youre not more popular as you certainly hold the gift.

发表评论


profile
  • 文章总数:78篇
  • 评论总数:252条
  • 分类总数:31个
  • 标签总数:43个
  • 运行时间:946天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • pacificLee: :twisted:
  • 小码: 为什么没有后面的呢,只有前10个
  • Anonymous: :lol:
  • Anonymous: :razz: 楼主是属于会聊天的。 我想问,sqoop发了几个版本了,应该没这些问题了吧。
  • Anonymous: Config.kafkaConfig.kafkaGroupI d 这个是指自己配置的group id 还是从 import org.apache.kafka.common.config .Config 这个类...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 那个方法是在 spark-streaming_2.10 中 kafka...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 你确定 kafka 里面有这个类 ? 个人在kafka 最新 稳定版...
  • Anonymous: :roll:
  • Anonymous: 很不错,试问有java版的吗?
  • Anonymous: 赞
  • Anonymous: 哈哈 看楼主的吐槽乐死了 where子句是可以写的 同样找不到资料 一点点试出来的 select id from xxxx where ${CONDITIONS} and 1=1 and 2=2 limit 4
  • EVIL: 我在运行完C4.5的代码后,显示 defined object DecisionTreeTest 是什么意思?这是有错误吗?运行结果在哪里看?
  • sf: 楼主的问题,我都遇到。。。没办法项目已经定型了,最后都硬着头 皮一个一个的改了源码
  • zz: 我去,楼主你真及时,我们今天上了新的HTTP2 push之后也发现速度曲线很奇怪,开始有200k/min,跟 另一台老的推送协议速度差不多,但是过了一会,立马降到只有几k /min,百思不得其解,我们还用了一个海外代理,在...
  • qi365: :mad: 很可恶,百度助纣为虐~
  • qi365: :? :shock: haha~ very good~
  • 张是大: 《深入浅出Spark机器学习实战(用户行为分析)》 课程网盘下载:http://pan.baidu.com/s/ 1mixvUli 密码:1pfn
  • Anonymous: :???:
  • Anonymous: 我用着sqoop感觉还可以,select 几十个字段也没事,估计是版本低。。
  • Anonymous: :grin: