程序员的自我修养
Home » Apache HBase » HBase CRUD

HBase CRUD

0条评论1,279次浏览

连接HBase

Create

进入HBase Shell,scan一下:

HBase写过程

  1. client向region server提交写请求
  2. region server找到目标region
  3. region检查数据是否与schema一致
  4. 如果客户端没有指定版本,则获取当前系统时间作为数据版本
  5. 将更新写入WAL log
  6. 将更新写入Memstore
  7. 判断Memstore的是否需要flush为Store文件

其中第三步寻找目标region的过程为:

  1. 访问zookeeper,寻找-ROOT-表
  2. 访问-ROOT-表,寻找.META.表
  3. 访问.META.表,定位region

一些需要了解的特性:

  • -ROOT-表和.META.表为HBase自带的两张表,-ROOT-表不会被split,.META.表会被split
  • .META.表每行保存一个region的位置信息,row key=表名+region start key+region id
  • HBase写数据是写入内存——HStore的Memstore中,所以速度较快
  • client端有缓存,.META.全部在内存中
  • 若client端缓存失效,需要6次网络交互才能定位region,3次用来发现失效,3次用来重新定位

Retrieve

Get

输出结果为:

10101

Scan

输出结果为:

cf:one=10101

cf:two=cdf

HBase读过程

Get操作和Scan操作原理上一样的,HBase将Get操作转换为Scan操作。

  1. client向region server提交读请求
  2. region server找到目标region
  3. RegionScanner poll出一个StoreScanner,调用next()获取数据
  4. StoreScanner poll出一个MemStoreScanner或StoreFileScanner,调用next()获取数据
  5. 若Sacn时设置setCacheBlocks使用块缓存,则将Scan的结果存入块缓存

关于块缓存:

  • 块缓存采用LRU算法,可以通过参数hfile.block.cache.size来设置大小,块缓存达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据
  • 如果Scan是MapReduce的输入源,要将setCacheBlocks的值设置为false。对于经常读到的行,就建议使用块缓冲

需要注意的:

  • 注意关闭ResultScanner,否则RegionServer可能会出问题

Delete

进入HBase Shell,scan一下:

Update

一个HStore对应一个列族,HStore由一个MemStore和多个StoreFile组成。其中StoreFile是只读的,对于更新操作,其实是不断的追加操作来实现的。当MemStore达到64MB(可设定)时,会存为一个StoreFile。当StoreFile数量达到阀值时,会进行合并操作,在合并的过程中,会将对数据的更新删除等操作进行统一处理。至于代码如何进行Update操作,简单的对同一个rowKey再进行一次Put操作及完成了更新操作。

关闭HBase连接

(转载本站文章请注明作者和出处 程序员的自我修养 – SelfUp.cn ,请勿用于任何商业用途)
分类:Apache HBase
标签:
发表评论


profile
  • 文章总数:79篇
  • 评论总数:402条
  • 分类总数:31个
  • 标签总数:44个
  • 运行时间:1013天

大家好,欢迎来到selfup.cn。

这不是一个只谈技术的博客,这里记录我成长的点点滴滴,coding、riding and everthing!

最新评论
  • 晴子: 在主节点初始化CM5数据库的时候报错误:Verifying that we can write to /opt/cm-5.9.0/etc/cloudera-scm -server log4j:ERROR Could not...
  • zhangnew: 就4题 :?:
  • linxh: “ 但要是遇到预先并不知道数组的长度而又需要获取正确的(或者称之 为原始的)split长度时,该如何处理呢。。? ” 印象中可以split函数参数传-1?
  • linxh: 班门弄斧一下: ssh host cmd 和直接ssh上后cmd结果不一样是因为ssh直接运行远程命令 是非交互非登录模式与ssh上去得到一个登录交互式Shell二 者加载的环境变量不一样。
  • 匿名: 其实文本分类和数字分类是一样的,只是文本分类需要多一个步骤, 就是计算它的tf-idf值将其转换为double类型
  • yurnom: 可能苹果最近又改变了返回值吧,最近没做测试了。 BadDeviceToken一般测试环境和正式环境弄错的情况 下会出现。
  • Anonymous: :razz: 博主,良心贴啊, 最近也在弄apns推送。 有个问题想请教你一下啊。 你博客中写的 Unregistered 错误,有准确的说明吗, 我看你博客中写的:...
  • 一波清泉: 回复邮箱: 1004161699@qq.com 多谢
  • Anonymous: 17/02/09 01:15:02 WARN Utils: Service ‘SparkUI’ could not bind on port 4040. Attempting port...
  • pacificLee: :twisted:
  • 小码: 为什么没有后面的呢,只有前10个
  • Anonymous: :lol:
  • Anonymous: :razz: 楼主是属于会聊天的。 我想问,sqoop发了几个版本了,应该没这些问题了吧。
  • Anonymous: Config.kafkaConfig.kafkaGroupI d 这个是指自己配置的group id 还是从 import org.apache.kafka.common.config .Config 这个类...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 那个方法是在 spark-streaming_2.10 中 kafka...
  • Anonymous: ZkUtils.getPartitionsForTopics (zkClient, Config.kafkaConfig.topic) 你确定 kafka 里面有这个类 ? 个人在kafka 最新 稳定版...
  • Anonymous: :roll:
  • Anonymous: 很不错,试问有java版的吗?
  • Anonymous: 赞
  • Anonymous: 哈哈 看楼主的吐槽乐死了 where子句是可以写的 同样找不到资料 一点点试出来的 select id from xxxx where ${CONDITIONS} and 1=1 and 2=2 limit 4