实战phoenix

守給你的承諾、 提交于 2021-01-11 03:41:49



一 安装部署

1, 下载

http://archive.apache.org/dist/phoenix/

本文下载的是apache-phoenix-4.12.0-HBase-1.2-bin.tar.gz  


2, 安装

解压之后将phoenix-4.12.0-HBase-1.2-server.jar复制到hbase/lib目录下。

在hbase-site.xml中,添加如下配置

<property>

<name>hbase.regionserver.wal.codec</name>

<value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value>

</property>


<property>

<name>hbase.coprocessor.master.classes</name>

<value>org.apache.phoenix.hbase.index.master.IndexMasterObserver</value>

</property>

<property>

<name>hbase.rpc.timeout</name>

<value>300000</value>

</property>


<property>

<name>hbase.region.server.rpc.scheduler.factory.class</name>

<value>org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory</value>

<description>Factory to create the Phoenix RPC Scheduler that usesseparate queues for index and metadata updates</description>

</property>

<property>

<name>hbase.rpc.controllerfactory.class</name>

<value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value>

<description>Factory to create the Phoenix RPCScheduler that uses separate queues for index and metadataupdates</description>

</property>

重启hbase

关于hadoop及hbase的安装部署,请参考:

Hadoop伪分布式集群安装部署

HBase的安装部署

3, 测试

测试的方法有很多,本文采用更加简单的测试方法。

在phoenix的bin目录下执行: sqlline.py [zookeeper]

./sqlline.py localhost:2181

创建表,并插入两条数据:

create table test (mykey integer not null primary key, mycolumn varchar);

upsert into test values (1,'Hello');

upsert into test values (2,'World!');

select * from test;

二 通过java的jdbc

创建表test1,并插入数据,然后查询

在这之前,要先将依赖:phoenix-4.12.0-HBase-1.2-client.jar加到工程的依赖里面

具体代码如下:

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.PreparedStatement;
import java.sql.Statement;
/**
* Created by spark on 2017/11/25.
*/
public class PhoenixTest {
   public static void main(String[] args) throws SQLException {
       Statement stmt = null;
       ResultSet rset = null;

       Connection con = DriverManager.getConnection("jdbc:phoenix:192.168.1.103:2181");
       stmt = con.createStatement();


       stmt.executeUpdate("create table test1 (mykey integer not null primary key, mycolumn varchar)");
       stmt.executeUpdate("upsert into test1 values (1,'Hello')");
       stmt.executeUpdate("upsert into test1 values (2,'World!')");
       con.commit();

       PreparedStatement statement = con.prepareStatement("select * from test1");
       rset = statement.executeQuery();
       while (rset.next()) {
           System.out.println(rset.getString("mycolumn"));
       }
       statement.close();
       con.close();
   }
}

输出结果如下:


三 映射hbase表

针对预先存在的HBase表,可以通过CREATE TABLE / CREATE VIEW DDL语句创建一个Phoenix表或视图。在这两种情况下,我们都会保留HBase元数据。对于CREATE TABLE,我们将创建任何不存在的元数据(表格,列族)。我们还将为每行添加一个空的键值,以便查询按预期工作(不需要在扫描期间映射所有列)。

Rowkey是通过使用将值简单拼接形成的,其中在变长类型后使用一个零字节作为分隔符。

映射hbase表到phoenix:

比如,在hbase上创建表t1,然后映射到phoenix上,分两步:

1, 创建hbase表

create 't1', {NAME => 'f1', VERSIONS => 5}

2, 创建phoenix视图

CREATE VIEW "t1" ( pk VARCHAR PRIMARY KEY, "f1".val VARCHAR )

Pk列声明你的Rowkey是字符串类型。而“f1”.val列声明你的HBase表将包含KeyValues列簇和列限定符“f1”:VAL和他们的值将是一个VARCHAR。

请注意,如果使用全部大写名称创建HBase表,则不需要双引号(因为这是Phoenix对字符串进行规范化的方法,通过上面的方式对它们进行标准化)。例如,用:

创建'T1',{NAME =>'F1',VERSIONS => 5}

你可以创建这个phoenix图:

CREATE VIEW t1(pk VARCHAR PRIMARY KEY,f1.val VARCHAR)

Hbase表中插入一条数据,phoenix表中查询

put 't1','1001','f1:VAL','lisi'

同时创建hbase和phoenix表:

也可以直接使用cteate table同时创建phoenix表和hbase表

CREATE TABLE t1(pk VARCHAR PRIMARY KEY,val VARCHAR)


推荐阅读:

1,HBase原理和设计

2,干货:Sqoop导入导出数据练习

3,kafka连接器两种部署模式详解

4,重磅:如何玩转kylin




关于Spark高级玩法

kafkahbasespark,Flink等入门到深入源码,spark机器学习,大数据安全,大数据运维,请关注浪尖公众号,看高质量文章。

更多文章,敬请期待


本文分享自微信公众号 - 浪尖聊大数据(bigdatatip)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!