博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark 连接使用 hbase
阅读量:6307 次
发布时间:2019-06-22

本文共 2947 字,大约阅读时间需要 9 分钟。

hot3.png

一、环境准备

    1、复制HBase目录下的lib文件 到 spark目录/lib/hbase。spark 依赖此lib

    清单如下:guava-12.0.1.jar            htrace-core-3.1.0-incubating.jar protobuf-java-2.5.0.jar   这三个jar加上以hbase开头所有jar,其它就不必了。全部复制会引起报错。

   2、修改spark配置文件(spark-env.sh),在最后面增加一行

 export SPARK_CLASSPATH=/usr/local/spark-1.5.1-bin-hadoop2.4/lib/hbase/*

   3、重启spark 集群

二、代码

package com.xx;import org.apache.commons.logging.Log;import org.apache.commons.logging.LogFactory;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.client.Result;import org.apache.hadoop.hbase.client.Scan;import org.apache.hadoop.hbase.io.ImmutableBytesWritable;import org.apache.hadoop.hbase.mapreduce.TableInputFormat;import org.apache.hadoop.hbase.protobuf.ProtobufUtil;import org.apache.hadoop.hbase.protobuf.generated.ClientProtos;import org.apache.hadoop.hbase.util.Base64;import org.apache.hadoop.hbase.util.Bytes;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaPairRDD;import org.apache.spark.api.java.JavaSparkContext;import java.io.IOException;/** * spark 读取HBase数据 * @author Chenj */public class ReadHBase {    private static final Log LOG = LogFactory.getLog(ErrorCount.class);    private static final String appName = "hbase test";    private static final String master = "spark://192.168.1.21:7077";    public static void main(String[] avgs){        SparkConf conf = new SparkConf().                            setAppName(appName).                            setMaster(master).                            setSparkHome(System.getenv("SPARK_HOME")).                            setJars(new String[]{System.getenv("jars")});        Configuration configuration = HBaseConfiguration.create();        configuration.set("hbase.zookeeper.property.clientPort", "2181");  //设置zookeeper client端口        configuration.set("hbase.zookeeper.quorum", "192.168.1.19");   // 设置zookeeper quorum        configuration.addResource("/usr/local/hbase-1.0.1.1/conf/hbase-site.xml");  //将hbase的配置加载        configuration.set(TableInputFormat.INPUT_TABLE, "heartSocket");        JavaSparkContext sc = new JavaSparkContext(conf);        Scan scan = new Scan();        scan.addFamily(Bytes.toBytes("d"));        scan.addColumn(Bytes.toBytes("d"), Bytes.toBytes("consumeTime"));        try {            ClientProtos.Scan proto = ProtobufUtil.toScan(scan);            String scanToString = Base64.encodeBytes(proto.toByteArray());            configuration.set(TableInputFormat.SCAN, scanToString);        } catch (IOException e) {            e.printStackTrace();        }        JavaPairRDD
 rdd = sc.newAPIHadoopRDD(configuration,                TableInputFormat.class,                ImmutableBytesWritable.class,                Result.class);        LOG.info("总个数为:" + rdd.count());    }}

3、提交运行

./spark-submit --class com.xx.ReadHBase --master spark://ser21:7077 /usr/local/spark-1.0-SNAPSHOT.jar

转载于:https://my.oschina.net/u/160697/blog/516362

你可能感兴趣的文章
Model-View-ViewModel for iOS
查看>>
16.Centos7文件类型
查看>>
用得上的网络命令
查看>>
LAMP平台编译安装
查看>>
php 压缩zip
查看>>
tar增量备份
查看>>
PHP系列(五)PHP字符串处理
查看>>
EXAM-1试题及答案详解
查看>>
NFS介绍、NFS服务端安装配置、NFS配置选项介绍
查看>>
rsyslog+loganalyzer 非常强大的日志系统
查看>>
SQL Server2008附加数据库之后显示为只读时解决方法
查看>>
Crontab在CentOS下的使用简介
查看>>
unix shell中(),[]和[[]]的区别
查看>>
盘点购物分享系统,有兴趣的来看看哦
查看>>
H5 Canvas 地图栅格相关资料
查看>>
hal.dll丢失
查看>>
转:Bootstrap3.0教程
查看>>
CCNA第6次课程(1)
查看>>
kubernetes社区组织和软件工程过程学习
查看>>
linux环境下jboss配置
查看>>