Hive 学习(三) Hive的DDL操作

早过忘川 提交于 2020-02-28 21:15:35

一,库操作

  1.1 语句结构

  1.2 创建库

二,表操作

  2.1 语法结构

  2.2 基本建表语句

  2.3 删除表

  2.4 内部表和外部表

  2.5 分区表

  2.6 CTAS建表语法

三,数据导入和导出

  3.1 将文件导入hive的表

  3.2 将hive表中的数据导出到指定的路径文件

  3.3 hive的文件格式

四,修改表定义

 

 

正文

一,库操作

  1.1 语句结构

CREATE (DATABASE|SCHEMA) [IF NOT EXISTS] database_name
  [COMMENT database_comment]      //关于数据块的描述
  [LOCATION hdfs_path]          //指定数据库在HDFS上的存储位置
  [WITH DBPROPERTIES (property_name=property_value, ...)];    //指定数据块属性
  默认地址:/user/hive/warehouse/db_name.db/table_name/partition_name/…

  1.2 创建数据库

create database db_order;
库建好后,在hdfs中会生成一个库目录:
hdfs://hdp20-01:9000/user/hive/warehouse/db_order.db

二,表操作

  2.1 语法结构

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
  [(col_name data_type [COMMENT col_comment], ...)]
  [COMMENT table_comment]
  [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
  [CLUSTERED BY (col_name, col_name, ...)
  [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
  [ROW FORMAT row_format]
  [STORED AS file_format]
  [LOCATION hdfs_path]

  2.2 基本建表语句

下面是常见的建表实例:

use db_order;
create table t_order(id string,create_time string,amount float,uid string);
表建好后,会在所属的库目录中生成一个表目录
/user/hive/warehouse/db_order.db/t_order
只是,这样建表的话,hive会认为表数据文件中的字段分隔符为 ^A

正确的建表语句为:
create table t_order(id string,create_time string,amount float,uid string)
row format delimited
fields terminated by ',';

这样就指定了,我们的表数据文件中的字段分隔符为 ","

  2.3 删除表

drop table t_order;
删除表的效果是:
hive会从元数据库中清除关于这个表的信息;
hive还会从hdfs中删除这个表的表目录;

  2.4 内部表和外部表

内部表(MANAGED_TABLE):表目录按照hive的规范来部署,位于hive的仓库目录/user/hive/warehouse中:如下实例:

create table t_order(id string,create_time string,amount float,uid string)
row format delimited
fields terminated by ',';

外部表(EXTERNAL_TABLE):表目录由建表用户自己指定,如下实例,比内部表多个 external,和location关键字

create external table t_access(ip string,url string,access_time string)
row format delimited
fields terminated by ','
location '/access/log';   # 注意这里的路径是hdfs的文件路径

外部表和内部表的特性差别:

  1、内部表的目录在hive的仓库目录中 VS 外部表的目录由用户指定

  2、drop一个内部表时:hive会清除相关元数据,并删除表数据目录

  3、drop一个外部表时:hive只会清除相关元数据;

一个hive的数据仓库,最底层的表,一定是来自于外部系统,为了不影响外部系统的工作逻辑,在hive中可建external表来映射这些外部系统产生的数据目录;然后,后续的ETL操作,产生的各种表建议用内部表。

  2.5 分区表

分区表的实质是:在表目录中为数据文件创建分区子目录,以便于在查询时,MR程序可以针对分区子目录中的数据进行处理,缩减读取数据的范围。比如,网站每天产生的浏览记录,浏览记录应该建一个表来存放,但是,有时候,我们可能只需要对某一天的浏览记录进行分析。这时,就可以将这个表建为分区表,每天的数据导入其中的一个分区;当然,每日的分区目录,应该有一个目录名(分区字段)。

创建分区表:

create table t_pv_log(id int,ip string,create_time string)
partitioned by(day string)   # 指明分区字段
row format delimited
fields terminated by ',';

下面是一个实例:

数据导入到分区表:

load data local inpath '/root/hiveData/t_pv_log1.txt' intable t_pv_log  partition (day='20190101')
load data local inpath '/root/hiveData/t_pv_log2.txt' intable t_pv_log  partition (day='20190102')

数据导入后,如下在HDFS中的文件目录:

关于多分区表:有时可能会遇到多个分区,如下:

create table t_partition(id int,name string,age int)
partitioned by(department string,sex string,howold int)
row format delimited fields terminated by ',';

数据导入:

load data local inpath '/root/p1.dat' into table t_partition partition(department='xiangsheng',sex='male',howold=20);

  2.6 CTAS建表语法

可以通过已存在表来建表:

1、create table t_user_2 like t_user;
新建的t_user_2表结构定义与源表t_user一致,但是没有数据

2、在建表的同时插入数据
create table t_access_user 
as
select ip,url from t_access;
t_access_user会根据select查询的字段来建表,同时将查询的结果插入新表中

三,数据导入和导出

  3.1 将文件导入hive的表

方式1:导入数据的一种方式:

手动用hdfs命令,将文件放入表目录;

hadoop fs -put -f '/root/hiveData/user.txt' '/user/hive/warehouse/school/student/'

方式2:在hive的交互式shell中用hive命令来导入本地数据到表目录

hive>load data local inpath '/root/order.data.2' into table t_order;

方式3:用hive命令导入hdfs中的数据文件到表目录

hive>load data inpath '/access.log.2017-08-06.log' into table t_access partition(dt='20170806'); 

注意:导本地文件和导HDFS文件的区别:

本地文件导入表:复制

hdfs文件导入表:移动

  3.2 将hive表中的数据导出到指定的路径文件

1、hive表中的数据导入HDFS的文件

insert overwrite directory '/root/access-data'
row format delimited fields terminated by ','
select * from t_access;

2、hive表中的数据导入本地磁盘文件

insert overwrite local directory '/root/access-data'
row format delimited fields terminated by ','
select * from t_access limit 100000;

  3.3 hive的文件格式

HIVE支持很多种文件格式: SEQUENCE FILE | TEXT FILE | PARQUET FILE | RC FILE

create table t_pq(movie string,rate int)  stored as textfile;

create table t_pq(movie string,rate int)  stored as sequencefile;

create table t_pq(movie string,rate int)  stored as parquetfile;

演示:

1、先建一个存储文本文件的表

create table t_access_text(ip string,url string,access_time string)
row format delimited fields terminated by ','
stored as textfile;

导入文本数据到表中:

load data local inpath '/root/access-data/000000_0' into table t_access_text;

2、建一个存储sequence file文件的表:

create table t_access_seq(ip string,url string,access_time string)
stored as sequencefile;

从文本表中查询数据插入sequencefile表中,生成数据文件就是sequencefile格式的了:

insert into t_access_seq
select * from t_access_text;

3、建一个存储parquet file文件的表:

create table t_access_parq(ip string,url string,access_time string)
stored as parquetfile;

四,修改表定义

仅修改Hive元数据,不会触动表中的数据,用户需要确定实际的数据布局符合元数据的定义。修改表ALTER TABLE table_name RENAME TO new_table_name示例:

alter table t_1 rename to t_x;
修改分区名:
alter table t_partition partition(department='xiangsheng',sex='male',howold=20) rename to partition(department='1',sex='1',howold=20); 
添加分区
alter table t_partition add partition (department='2',sex='0',howold=40);
删除分区
alter table t_partition drop partition (department='2',sex='2',howold=24);

修改表的文件格式定义:
ALTER TABLE table_name [PARTITION partitionSpec] SET FILEFORMAT file_format
实例:
alter table t_partition partition(department='2',sex='0',howold=40 ) set fileformat sequencefile;  

修改列名定义:
ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENTcol_comment] [FIRST|(AFTER column_name)]  实例:
alter table t_user change price jiage float first;

增加/替换列:
ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type[COMMENT col_comment], ...)  
示例:alter table t_user add columns (sex string,addr string);
alter table t_user replace columns (id string,age int,price float);

 

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!