程序员的自我修养
Home » Apache Hadoop, 战5渣 » 战5渣系列——记一次排查MR程序逻辑错误

战5渣系列——记一次排查MR程序逻辑错误

0条评论2,065次浏览

前言

战5渣,意思是战斗力只有5的渣渣。战斗力多少算高没有一般的定论,但战斗力只有5的肯定是渣渣,如下图所示。战5渣系列(真心希望这个系列的文章越少越好)用来记录工作中遇到的那些想抽自己脸的错误经历,并希望以此为戒。
战斗值

背景简介

出错部分的需求简介:统计某个时间范围内(范围A)新装的电话号码在某个时间范围内(范围B)的通话频率,并过滤出通话频率小于阀值的电话号码。

若是采用关系型数据库来处理,由于通话记录的量十分巨大,oracle基本上处于工作不能的状态。于是采用MR来进行处理,相当于一个非常简单的join操作。

由于时间范围A内的新装电话号码数量并不大,基本都在1W条以内,所以可以采用map端join来进行处理:map阶段处理的是每一条通话记录,在map的setup阶段将所有号码读出并放入hashmap中,遍历通话记录时若该记录的号码在hashmap中时,将相应的计数值加1。最后在map的cleanup阶段,遍历该hashmap,并输出所有的记录。

reduce阶段则统计每条记录的总频率,然后将小于阀值的记录输出。

Mapper

出错的代码就在以上代码中。先说说出错的现象,测试时号码总数为9051:

参数(通话次数小于N) 结果 分析
N=0 0 正确,没有通话次数小于0的号码
N=1 9051 居然将所有的号码都输出了,难道恰好这些号码在这个时间内都没通话?
N=2 8614 ##¥¥@%……!&居然比上面的小,你们是子集关系啊大哥,有比子集小的父集么?
N=3 8223 好吧
N=3 8141 大哥我错了
N=90 8725 还玩起抛物线了?
N=9000 9051 终于正常了,没有哪个号码通话超过9000次

在排除完可能数据没有导入成功或rowkey的设计和使用不统一的可能后,发现另外还有2个现象,这2个现象也是后来发现问题的关键:

  1. 本地测试一切都正常
  2. 有一次测试时数据量小只有一个map,结果正常;其它的测试一般都是25+个map,结果一直不正确

好吧,这时战斗力只有5的我终于不得不怀疑是自己的代码问题了,于是开始看Mapper。半小时后无果,遂尝试将mapper和reducer中的threshold判断都删除,输出结果正确。删除mapper的判断,加上reducer的判断,输出结果正确。删除reducer的判断,加上mapper的判断,输出结果错误。至此,终于发现出错的代码为上述代码中的22行,至于为啥,战斗力只有5的我一时半会还是没想明白。后来急忙的将正确的结果交付后开始仔细思考,发现哈哈哈我的战斗力果然只有5啊(等等,一起排错的几个同事到现在还没发现,岂不是战斗值更低)。

分布式的世界水很深

一个Hadoop的Job会启动多个map?若输入是hdfs文件,则有多少个block就启动多少个;若输入是hbase,则有多少个region就启动多少个。这些mapper运行在不同的机器上面,通常一台机器上会有多个mapper。上述错误是一个典型的用单线程的思想来考虑分布式所造成的。实际运算过程中,多个mapper分布在不同的机器上,每个mapper都有自己的输出,这些输出最终汇总到1个或多个reducer(可设置)中,代码22行中的判断只是本mapper中该记录超过了阀值,于是不输出,但另外一个mapper中,该记录可能低于阀值,于是输出,最后汇总到reduce时,恰好该记录还是低于阀值,于是便出现在了最终结果中。如下所示:

mapper01 mapper02
记录<电话号码,通话频次> <n01,0> <n01,1>
<n02,1> <n02,3>
<n03,3> <n03,0>
<n04,0> <n04,2>
<n05,0> <n05,0>
频次<1输出 <n01,0> <n03,0>
<n04,0> <n05,0>
<n05,0>
reducer阶段输出 n01, n03, n04, n05
实际正确的输出 n05

最后

only5

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
标签:,
发表评论


profile
  • 文章总数:79篇
  • 评论总数:402条
  • 分类总数:31个
  • 标签总数:44个
  • 运行时间:1013天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • 晴子: 在主节点初始化CM5数据库的时候报错误:Verifying that we can write to /opt/cm-5.9.0/etc/cloudera-scm -server log4j:ERROR Could not...
  • zhangnew: 就4题 :?:
  • linxh: “ 但要是遇到预先并不知道数组的长度而又需要获取正确的(或者称之 为原始的)split长度时,该如何处理呢。。? ” 印象中可以split函数参数传-1?
  • linxh: 班门弄斧一下: ssh host cmd 和直接ssh上后cmd结果不一样是因为ssh直接运行远程命令 是非交互非登录模式与ssh上去得到一个登录交互式Shell二 者加载的环境变量不一样。
  • 匿名: 其实文本分类和数字分类是一样的,只是文本分类需要多一个步骤, 就是计算它的tf-idf值将其转换为double类型
  • yurnom: 可能苹果最近又改变了返回值吧,最近没做测试了。 BadDeviceToken一般测试环境和正式环境弄错的情况 下会出现。
  • Anonymous: :razz: 博主,良心贴啊, 最近也在弄apns推送。 有个问题想请教你一下啊。 你博客中写的 Unregistered 错误,有准确的说明吗, 我看你博客中写的:...
  • 一波清泉: 回复邮箱: 1004161699@qq.com 多谢
  • Anonymous: 17/02/09 01:15:02 WARN Utils: Service ‘SparkUI’ could not bind on port 4040. Attempting port...
  • pacificLee: :twisted:
  • 小码: 为什么没有后面的呢,只有前10个
  • Anonymous: :lol:
  • Anonymous: :razz: 楼主是属于会聊天的。 我想问,sqoop发了几个版本了,应该没这些问题了吧。
  • Anonymous: Config.kafkaConfig.kafkaGroupI d 这个是指自己配置的group id 还是从 import org.apache.kafka.common.config .Config 这个类...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 那个方法是在 spark-streaming_2.10 中 kafka...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 你确定 kafka 里面有这个类 ? 个人在kafka 最新 稳定版...
  • Anonymous: :roll:
  • Anonymous: 很不错,试问有java版的吗?
  • Anonymous: 赞
  • Anonymous: 哈哈 看楼主的吐槽乐死了 where子句是可以写的 同样找不到资料 一点点试出来的 select id from xxxx where ${CONDITIONS} and 1=1 and 2=2 limit 4