程序员的自我修养
Home » Apache Hadoop, Java语言 » MapReduce库类

MapReduce库类

0条评论1,691次浏览

FieldSelection

FieldSelection包含FieldSelectionMapper、FieldSelectionReducer和FieldSelectionHelper,根据字面意思就可以了解其作用:用于选择field。直接上示例:

测试数据

代码示例

其中第三行用于选择输出的field。冒号之前的为key的field,之后为value的field。"0,3:1,2,4-"的意思为:选择第1、4列为key,选择第2、3、5及其以后的列为value。此外还可以使用类似“4-7”这样的方式来选择一个范围。为了直观的区分key和value,第五行将key和value的分隔符设置为“|”。

代码中没有使用reduce,先来看map的输出。

输出结果

如上所述,择第1、4列为key,选择第2、3、5及其以后的列为value。由于没有reduce,没有group阶段,所以没有排序。

现将以上代码中注视掉的部分放开,并注视掉15行,运行结果如下:

JobControl与ControlledJob

当任务过于复杂,需要多个MapReduce按照一定的顺序或流程来执行时,除了编写一个个MR任务并用shell脚本按顺序启动外,还可以用JobControl来控制。

旧版本API中还可以采用ChainMapper和ChainReducer来处理流程性的任务,但新版本API中据我所知1.0.4、1.2.1版本中都是没有实现的,在2.4.1版本中才可以发现新版本API的ChainMapper和ChainReducer(2.4.1之前哪个版本才出现没有考证)。

下面给出JobControl的简单使用示例:

Mapper

InverseMapper

InverseMapper,用于将Key和Value对换的Mapper。源码如下:

TokenCounterMapper

WordCount示例中Map的实现,利用StringTokenizer分割字符串,然后输出并计数为1。

MultithreadedMapper

当Map任务不是CPU密集型任务时,例如Map需要从数据库中读取数据,可以采用MultithreadedMapper来提高throughput。通过setNumberOfThreads(..)方法来设置线程数量,也可以通过设置参数mapred.map.multithreadedrunner.threads来达到同样的目的。

Reducer

Hadoop自带的Reducer主要有IntSumReducer和LongSumReducer,根据字面意思就可以了解到该reducer的作用就是简单的做sum操作。

Tool、ToolRunner和GenericOptionsParser

若运行job时看到以下信息,则代表该MapReduce任务没有按照官方推荐的方式来运行。

可以通过如下方式启动Job:

GenericOptionsParser为一个解析Hadoop命令选项的辅助类,通常不直接调用,而是通过代码15行的方式来隐式的使用。

参考资料

Hadoop权威指南

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
标签:,
发表评论


profile
  • 文章总数:79篇
  • 评论总数:331条
  • 分类总数:31个
  • 标签总数:44个
  • 运行时间:1072天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • 增达网: 受教了!呵呵!
  • Anonymous: :!: :smile: :oops: :grin: :eek: :shock:
  • 27: :razz: dsa会报错,rsa不会
  • Anonymous: 看错了 忽略我
  • Anonymous: UserSideCF这个类在哪里
  • 晴子: 在主节点初始化CM5数据库的时候报错误:Verifying that we can write to /opt/cm-5.9.0/etc/cloudera-scm -server log4j:ERROR Could not...
  • zhangnew: 就4题 :?:
  • linxh: “ 但要是遇到预先并不知道数组的长度而又需要获取正确的(或者称之 为原始的)split长度时,该如何处理呢。。? ” 印象中可以split函数参数传-1?
  • linxh: 班门弄斧一下: ssh host cmd 和直接ssh上后cmd结果不一样是因为ssh直接运行远程命令 是非交互非登录模式与ssh上去得到一个登录交互式Shell二 者加载的环境变量不一样。
  • 匿名: 其实文本分类和数字分类是一样的,只是文本分类需要多一个步骤, 就是计算它的tf-idf值将其转换为double类型
  • yurnom: 可能苹果最近又改变了返回值吧,最近没做测试了。 BadDeviceToken一般测试环境和正式环境弄错的情况 下会出现。
  • Anonymous: :razz: 博主,良心贴啊, 最近也在弄apns推送。 有个问题想请教你一下啊。 你博客中写的 Unregistered 错误,有准确的说明吗, 我看你博客中写的:...
  • 一波清泉: 回复邮箱: 1004161699@qq.com 多谢
  • Anonymous: 17/02/09 01:15:02 WARN Utils: Service ‘SparkUI’ could not bind on port 4040. Attempting port...
  • pacificLee: :twisted:
  • 小码: 为什么没有后面的呢,只有前10个
  • Anonymous: :lol:
  • Anonymous: :razz: 楼主是属于会聊天的。 我想问,sqoop发了几个版本了,应该没这些问题了吧。
  • Anonymous: Config.kafkaConfig.kafkaGroupI d 这个是指自己配置的group id 还是从 import org.apache.kafka.common.config .Config 这个类...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 那个方法是在 spark-streaming_2.10 中 kafka...