程序员的自我修养
Home » Apache Hadoop, Java语言 » Java自动适配读取Hdfs和本地文件

Java自动适配读取Hdfs和本地文件

1条评论3,728次浏览

开发MR程序通常是在本地跑local MapReduce进行测试,等测试完毕后则将mapred-site.xml放入src下打包成jar放在集群上进行测试。MR若需要读取文件作为数据源,则FileInputFormat.addInputPath(job, new Path(args[0]) );。但有时会出现需要读取Hdfs文件内容但又不能作为数据源输入的场景,比如写HBase MapReduce的时候,输入数据源为HBase的表,但是需要读取Hdfs上某文件的数据来进行操作。

单纯的读取本地文件内容实现起来十分简单,但读取本地文件内容的代码放在集群上是无法使用的。是否有方法能自动适配本地和集群两种模式下的文件读取?通过查找Hadoop API发现可通过FileSystem来实现。具体实现代码如下:

如是本地测试,项目中不包含mapred-site.xml文件(或将其中集群的配置信息注掉),则根据传入的conf则读取本地的文件;反之,添加mapred-site.xml文件,则读取Hdfs上的文件。本地测试时,getResult(conf, "/home/yurnom/data")将读取本地文件or文件夹/home/yurnom/data下面的内容;集群测试时,getResult(conf, "/home/yurnom/data")将读取hdfs://master:9000/home/yurnom/data文件or文件夹下面的内容。

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
标签:,
1条评论
  1. JTY说道:

    读取中文乱码:BufferedReader d = new BufferedReader(new InputStreamReader(fsdis));
    即使这样,中文仍然乱码:BufferedReader buffData = new BufferedReader(new InputStreamReader(inData, CharsetNames.UTF_8));

    请问有解决中文乱码的办法吗?

发表评论


profile
  • 文章总数:81篇
  • 评论总数:409条
  • 分类总数:32个
  • 标签总数:45个
  • 运行时间:1636天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论