程序员的自我修养
Home » Apache HBase » HBase CRUD

HBase CRUD

0条评论1,162次浏览

连接HBase

Create

进入HBase Shell,scan一下:

HBase写过程

  1. client向region server提交写请求
  2. region server找到目标region
  3. region检查数据是否与schema一致
  4. 如果客户端没有指定版本,则获取当前系统时间作为数据版本
  5. 将更新写入WAL log
  6. 将更新写入Memstore
  7. 判断Memstore的是否需要flush为Store文件

其中第三步寻找目标region的过程为:

  1. 访问zookeeper,寻找-ROOT-表
  2. 访问-ROOT-表,寻找.META.表
  3. 访问.META.表,定位region

一些需要了解的特性:

  • -ROOT-表和.META.表为HBase自带的两张表,-ROOT-表不会被split,.META.表会被split
  • .META.表每行保存一个region的位置信息,row key=表名+region start key+region id
  • HBase写数据是写入内存——HStore的Memstore中,所以速度较快
  • client端有缓存,.META.全部在内存中
  • 若client端缓存失效,需要6次网络交互才能定位region,3次用来发现失效,3次用来重新定位

Retrieve

Get

输出结果为:

10101

Scan

输出结果为:

cf:one=10101

cf:two=cdf

HBase读过程

Get操作和Scan操作原理上一样的,HBase将Get操作转换为Scan操作。

  1. client向region server提交读请求
  2. region server找到目标region
  3. RegionScanner poll出一个StoreScanner,调用next()获取数据
  4. StoreScanner poll出一个MemStoreScanner或StoreFileScanner,调用next()获取数据
  5. 若Sacn时设置setCacheBlocks使用块缓存,则将Scan的结果存入块缓存

关于块缓存:

  • 块缓存采用LRU算法,可以通过参数hfile.block.cache.size来设置大小,块缓存达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据
  • 如果Scan是MapReduce的输入源,要将setCacheBlocks的值设置为false。对于经常读到的行,就建议使用块缓冲

需要注意的:

  • 注意关闭ResultScanner,否则RegionServer可能会出问题

Delete

进入HBase Shell,scan一下:

Update

一个HStore对应一个列族,HStore由一个MemStore和多个StoreFile组成。其中StoreFile是只读的,对于更新操作,其实是不断的追加操作来实现的。当MemStore达到64MB(可设定)时,会存为一个StoreFile。当StoreFile数量达到阀值时,会进行合并操作,在合并的过程中,会将对数据的更新删除等操作进行统一处理。至于代码如何进行Update操作,简单的对同一个rowKey再进行一次Put操作及完成了更新操作。

关闭HBase连接

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
分类:Apache HBase
标签:
发表评论


profile
  • 文章总数:78篇
  • 评论总数:252条
  • 分类总数:31个
  • 标签总数:43个
  • 运行时间:946天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • pacificLee: :twisted:
  • 小码: 为什么没有后面的呢,只有前10个
  • Anonymous: :lol:
  • Anonymous: :razz: 楼主是属于会聊天的。 我想问,sqoop发了几个版本了,应该没这些问题了吧。
  • Anonymous: Config.kafkaConfig.kafkaGroupI d 这个是指自己配置的group id 还是从 import org.apache.kafka.common.config .Config 这个类...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 那个方法是在 spark-streaming_2.10 中 kafka...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 你确定 kafka 里面有这个类 ? 个人在kafka 最新 稳定版...
  • Anonymous: :roll:
  • Anonymous: 很不错,试问有java版的吗?
  • Anonymous: 赞
  • Anonymous: 哈哈 看楼主的吐槽乐死了 where子句是可以写的 同样找不到资料 一点点试出来的 select id from xxxx where ${CONDITIONS} and 1=1 and 2=2 limit 4
  • EVIL: 我在运行完C4.5的代码后,显示 defined object DecisionTreeTest 是什么意思?这是有错误吗?运行结果在哪里看?
  • sf: 楼主的问题,我都遇到。。。没办法项目已经定型了,最后都硬着头 皮一个一个的改了源码
  • zz: 我去,楼主你真及时,我们今天上了新的HTTP2 push之后也发现速度曲线很奇怪,开始有200k/min,跟 另一台老的推送协议速度差不多,但是过了一会,立马降到只有几k /min,百思不得其解,我们还用了一个海外代理,在...
  • qi365: :mad: 很可恶,百度助纣为虐~
  • qi365: :? :shock: haha~ very good~
  • 张是大: 《深入浅出Spark机器学习实战(用户行为分析)》 课程网盘下载:http://pan.baidu.com/s/ 1mixvUli 密码:1pfn
  • Anonymous: :???:
  • Anonymous: 我用着sqoop感觉还可以,select 几十个字段也没事,估计是版本低。。
  • Anonymous: :grin: