phoenix

phoenix jdbc doesn't work, no exceptions and stuck

烈酒焚心 提交于 2020-01-06 18:08:04
问题 I'm new to phoenix and hbase.hbase table and phoenix view works well and i can fetch data through phoenix. when I access jdbc to phoenix,it stucks. import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.Statement; public class Phoenix { private static String driver = "org.apache.phoenix.jdbc.PhoenixDriver"; public static void main(String[] args) throws SQLException { try { Class.forName(driver); } catch

phoenix join operation not working with hbase

社会主义新天地 提交于 2020-01-05 20:27:20
问题 I am using hbase-1.1.0.1 and phoenix-4.4.0-HBase-1.1-bin versions. To run SQL query I am using SQuirrel SQL client. Simple queries such as Select * , Select count(*) , where clause and sub queries are working fine, but JOIN operation is not working at all. Please help me on this. 回答1: I got the solution for this. Actually I did a mistake where I copied "phoenix-core-4.4.0-HBase-1.1.jar" into my hbase's lib directory. When I replaced it with "phoenix-4.4.0-HBase-1.1-server.jar" problem got

DBeaver链接kerberos安全认证的Phoenix集群

寵の児 提交于 2020-01-05 13:48:44
DBeaver链接kerberos安全认证的Phoenix集群 最近公司的CDH集群,启动了kerberos安全认证,所有的用户验证全部需要依赖kerberos来进行。之前的裸奔集群,总算有了一些安全认证的功能,虽然网上很多人都说不推荐使用kerberos进行集群的安全认证,但是也没有说明使用哪种安全认证的方式会更好,目前比较现成的安全认证方式也只知道kerberos。 使用kerberos认证之后,原本的Phoenix sqlline可以在存有kerberos缓存票据的机器上直接运行,链接方式,启动命令等,都和没有启动kerberos之前一样。只需要执行klist命令,能够显示kerberos主体信息即可。但是使用Windows进行远程链接Phoenix时出现了问题。首先Windows上没有kerberos客户端,不能直接缓存票据。其次,如果使用kinit命令进行链接的话,必须知道kerberos中的主体密码,而CDH的kerberos主体是CM自主生成的,我们也不知道密码。所以我们只能使用kertab的形式进行链接。 明确了使用keytab的形式进行链接,我们首先尝试了Linux sqlline的形式链接,测试完全没有问题,使用一切正常。但是使用Windows的DBeaver远程链接时要怎么做呢? 百度搜索了一下

JSON data sink to Apache Phoenix with Apache Flume Error

余生长醉 提交于 2020-01-05 04:11:08
问题 I want to sink JSON data into Apache Phoenix with Apache Flume, followed an online guide http://kalyanbigdatatraining.blogspot.com/2016/10/how-to-stream-json-data-into-phoenix.html, but met the following error. How to resolve it? Many thanks! My environment list as: hadoop-2.7.3 hbase-1.3.1 phoenix-4.12.0-HBase-1.3-bin flume-1.7.0 In flume, I added phoenix sink related jars in $FLUME_HOME/plugins.d/phoenix-sink/lib commons-io-2.4.jar twill-api-0.8.0.jar twill-discovery-api-0.8.0.jar json-path

Apache Phoenix (4.3.1 and 4.4.0-HBase-0.98) on Spark 1.3.1 ClassNotFoundException

北战南征 提交于 2020-01-03 17:00:57
问题 I'm trying to connect to Phoenix via Spark and I keep getting the following exception when opening a connection via the JDBC driver (cut for brevity, full stacktrace below): Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hbase.ipc.controller.ClientRpcControllerFactory at java.net.URLClassLoader$1.run(URLClassLoader.java:366) at java.net.URLClassLoader$1.run(URLClassLoader.java:355) at java.security.AccessController.doPrivileged(Native Method) The class in question is provided

【HBase SQL插件 Phoenix Squirrel】Phoenix入门 2019_12_29

拈花ヽ惹草 提交于 2019-12-30 01:13:22
Phenix 简介 优势 架构 资源 部署 测试 表操作 C 创建 R 显示 U 更新 D 删除 H-P 表映射 视图映射 案例 表映射 案例1 案例2 P-H 二级索引 配置修改 二级索引 Global Index Local Index 删除索引 三种优化查询方法 加盐表 盐值设定规则 格式 P-Spark Maven 依赖 示例代码 P 可视化工具 资源 安装 连接 简介 Apache Phoenix 是 HBase 开源 SQL 皮肤,使用标准 JDBC API 代替 HBase-Client API 来 DDL,DML HBase数据库。 优势 令 hbase 支持标准化 SQL,替代繁复 hbase 命令,降低 hbase 学习成本 完美支持 Hbase 二级索引创建 更加便捷集成 Spark,Hive,Pig,Flume 和 MapReduce 架构 服务器:HBase 集成 Phoenix 十分简单,只需将 Phoenix.Jars 分发到 所有RegionServer HBase_HOME/lib 目录下即可 客户端:使用 org.apache.phoenix.jdbc.PhoenixDriver 即可,究极简单 资源 官网:http://phoenix.apache.org/index.html 下载:http://phoenix.apache.org

Spark can't connect to secure phoenix

╄→гoц情女王★ 提交于 2019-12-25 04:21:42
问题 I am running a spark program on secured cluster which creates SqlContext for creating dataframe over phoenix table. When I run my program in local mode with --master option set to local[2] my program works completely fine, however when I try to run same program with master option set to yarn-client, I am getting below exception: Caused by: org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=5, exceptions: Fri Sep 16 12:14:10 IST 2016, RpcRetryingCaller

Getting java.lang.ClassNotFoundException while running Spark Application

人盡茶涼 提交于 2019-12-24 08:48:11
问题 I am new to Spark (Scala) and I am trying to run one spark application through spark submit. Unfortunately I am getting java.lang.ClassNotFoundException exception. Here is my spark submit command: ./spark-submit --class "spark.phoenix.a" --master local --deploy-mode client /home/ec2-user/phoenix-0.0.1-SNAPSHOT.jar Here is my Exception: java.lang.ClassNotFoundException: spark.phoenix.a at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader

Phoenix

时光总嘲笑我的痴心妄想 提交于 2019-12-23 21:53:54
jdbc连接工具 ——Phoenix Phoenix、hive、impala,phoenix可能不成熟,但是速度要快 Phoenix安装很简单 1、解压Phoenix, 2、复制下面jar到各个节点的hbase/lib下 phoenix-4.14.1-HBase-1.2-client.jar phoenix-4.14.1-HBase-1.2-server.jar phoenix-core-4.14.1-HBase-1.2.jar 3、把以下xml文件复制到phoenix的bin下 hbase-site.xml hdfs-site.xml core-site.xml 4、最后再bin下启动./sqlline.py master 这里的master是zookeeper的主机名 5、记得重启hbase ,这里的phoenix的版本的phoenix-4.14.1-HBase-1.2 期间遇到的问题,ntp没有同步,ha的hmaster和不是ha来回配置导致zk节点有问题,删除重新生成即可。zk可能也会有问题,有时候pioneix连接时会拒绝连接,重启未必好使,不过我重启系统好使了。 phoenix使用sql脚本创建表,使用csv格式导入文件,使用sql脚本查询数据 -- 建表文件 CREATE TABLE IF NOT EXISTS WEB_STAT ( HOST CHAR(2) NOT

phoenix安装

女生的网名这么多〃 提交于 2019-12-22 09:43:33
下载 wget http://ftp.tc.edu.tw/pub/Apache/phoenix/apache-phoenix-5.0.0-HBase-2.0/bin/apache-phoenix-5.0.0-HBase-2.0-bin.tar.gz 解压缩 tar zxvf apache-phoenix-5.0.0-HBase-2.0-bin.tar.gz 拷贝 cp phoenix-5.0.0-HBase-2.0-server.jar /usr/local/hbase-2.1.0/lib/ 验证 $ ./sqlline.py xxxx:2181 Setting property: [incremental, false] Setting property: [isolation, TRANSACTION_READ_COMMITTED] issuing: !connect jdbc:phoenix:xxxx:2181 none none org.apache.phoenix.jdbc.PhoenixDriver Connecting to jdbc:phoenix:xxxx:2181 SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/tmp/apache