关于 Spark 读取预分区 Hbase 问题 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Nirlan
V2EX    Hadoop

关于 Spark 读取预分区 Hbase 问题

  •  
  •   Nirlan 2018-09-28 00:26:39 +08:00 3978 次点击
    这是一个创建于 2636 天前的主题,其中的信息可能已经有所发展或是发生改变。

    RT.

    我有一张预分区的 Hbase 表, split key 是 000| 001| ... 199|这样,200 个分区.

    我的 rowkey 是这样设计的 001|20180928001122+ 业务 ID + 6 位随机数

    这样设计的话避免了 Spark 读取时数据倾斜啊,插入时数据热点问题.

    但是我想用 Spark 读取某一天的数据,还想用 scan 操作的话,貌似很难实现.

    比如我的 startrow=001|2018092800 + 0000 + 0000 + 000000 endrow=001|2018092899 + 0000 + 0000 +000000

    我想读取完这一天的数据,难道得循环 200 个 region 吗?

    单机多线程的话是可以这么做的,但是我想用 spark 分布式环境来操作.

    我查阅了 TableSnapshotScanner 类,对其 regions 属性不甚理解,望高手给个思路(给个 demo 最好了...

    第 1 条附言    2018-10-09 14:35:06 +08:00
    --国庆净玩了,没有好好想这个问题.周一来了之后整理了一下思路,并参考(抄袭)了网上的一些实现,现在把完整的代码给贴一下. 附上参考的链接 http://www.zhyea.com/2017/06/21/visit-hbase-with-custom-spark-rdd.html

    --感谢 4 楼的兄弟提供思路

    提出这个问题主要是 Hbase 的 rowkey 设计为 B+ tree,Hbase 的 scan 操作性能极高.
    在 Hbase 建表的时候,预分区是必要的,但是 Hbase 的数据插入分区的时候,又是和 rowkey 的初始几位密切相关

    比如,我的 splitkeys 是 Array("0001|","002|","003|","004|","005|","006|","007|","008|")
    我在生成 rowkey 的时候,rowkey 的前缀从上面这个数据里随机取一个,如 006|,那么与这个 rowkey 相关的数据一定会插入 start 006| end 007| 这个分区里,给 scan 操作带来很大便利.

    但是随之产生的问题就是我主楼里提到的.以下代码解决了这个问题

    具体的实现过程主要是两个类,一个重写了 RDD 的实现,一个用于从 hbase 拉取数据

    --重写 RDD
    class QueryRDD(sc: SparkContext, tableName: String, startRow: String, endRow: String, splitKeys: Array[String]) extends RDD[Map[String,String]](sc, Nil)
    {

    #重写该方法用于计算每一个 partition
    override def compute(split: Partition, context: TaskContext): Iterator[Map[String,String]] =
    {
    val part = split.asInstanceOf[QueryPartition]
    val results = query(part)
    new InterruptibleIterator(context, results.iterator)
    }

    #重写该方法用于获取 partition
    override protected def getPartitions: Array[Partition] =
    {
    val partitiOns= ArrayBuffer[Partition]()
    for (splitKey <- splitKeys)
    {
    partitions += new QueryPartition(splitKey)
    }
    partitions.toArray
    }

    private def query(partition: QueryPartition) =
    {
    val splitKey = partition.split
    val filter = null #该参数可以不为 null,即可在 scan 的同时进行 filter
    val start = splitKey + startRow
    val end = splitKey + endRow
    HBaseClient.scan(tableName, filter, start, end)
    }
    }

    #实现自己的 partition
    class QueryPartition(splitKey: String) extends Partition
    {
    def split: String = splitKey

    override def index: Int = splitKey.substring(0, 3).toInt

    override def hashCode(): Int = index
    }

    以上是重写 RDD,hbase 的具体 scan 操作,在我上面的链接里可以找到,我照搬了过来.但是要注意他的 58 行,要把 startRow 改成 stopRow,不然的话其他代码写得再好都白费啦
    6 条回复    2018-10-09 17:34:49 +08:00
    F281M6Dh8DXpD1g2
        1
    F281M6Dh8DXpD1g2  
       2018-09-28 00:33:45 +08:00 via iPhone
    把你 hbase 的表对应成 spark 的 dataframe,然后让 spark 自己处理就好了
    不过确实是去所有 region 里面扫一遍
    sadhen
        2
    sadhen  
       2018-09-28 00:40:38 +08:00
    HBase 是实时集群,Spark 用在离线的,不要误用哦。

    具体要做什么,要想清楚自己的技术选型。
    Nirlan
        3
    Nirlan  
    OP
       2018-09-28 09:32:10 +08:00
    @sadhen #2 Hbase,是可以用于 OLAP 任务的吧...
    kex0916
        4
    kex0916  
       2018-09-28 09:53:32 +08:00   1
    自己实现个 RDD,partition 按照你预分区的划分 200 个,一个 partition 对应一个预分区,每个分区都是计算该分区对应的预分区的数据,对应的 startrow=该分区对应的预分区号+2018092800 + 0000 + 0000 + 000000,endrow=该分区对应的预分区号+2018092899 + 0000 + 0000 +000000,这样 200 个 region 在资源允许的情况可以并发的读取,也方便后面使用 spark 的算子。
    Nirlan
        5
    Nirlan  
    OP
       2018-10-09 14:38:58 +08:00
    @kex0916 #4 感谢提供思路
    kex0916
        6
    kex0916  
       2018-10-09 17:34:49 +08:00
    @Nirlan ^_^
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     3242 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 30ms UTC 11:37 PVG 19:37 LAX 03:37 JFK 06:37
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86