[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format] --表中数据每行的格式,定义数据字段的分隔符,集合元素的分隔符等
[STORED AS file_format] --表中的数据要以哪种文件格式来存储,默认为TEXTFILE(文本文件) --可以设置为SequnceFile或 Paquret,ORC等 [LOCATION hdfs_path] --表在hdfs上的位置
create table xxx like xxx1;
EXTERNAL:
不带EXTERNAL 是一个MANAGED_TABLE (管理表,内部表)
带EXTERNAL 是一个外部表
内部表(管理表)在执行删除操作时,会将表的元数据(schema)和表位置的数据一起删除!
外部表在执行删除表操作时,只删除表的元数据(schema)
转换:alter table p1 set tblproperties('EXTERNAL'='TRUE');
ORDERBY col_list : 全排序! SORT BY col_list : 部分排序! 设置reduceTaskNum>1。 只写sort by是随机分区! 如果希望自定定义使用哪个字段分区,需要使用DISTRIBUTE BY
DISTRIBUTE BY col_list:指定按照哪个字段分区!结合sort by 使用! CLUSTER BY col_list : 如果分区的字段和排序的字段一致,可以简写为CLUSTER BY DISTRIBUTE BY sal sort by sal asc 等价于 CLUSTER BY sal
要求: CLUSTER BY 后不能写排序方式,只能按照asc排序! SORT BY: SORT BY 是一个部分排序方案, 其只会在每个reducer 中对数据进行排序,也就是执行一个局部排序过程。
-- 往表里装载数据,并且动态建立分区,以city建立动态分区 hive.exec.dynamici.partition=true; #开启动态分区,默认是false set hive.exec.dynamic.partition.mode=nonstrict; #开启允许所有分区都是动态的,否则必须要有静态分区才能使用。 insert overwrite table dpartition partition(ct) select id ,name,city from mytest_tmp2_p; -- 因为dpartition表中只有两个字段,所以当我们查询了三个字段时(多了city字段),所以系统默认以最后一个字段city为分区名,因为分区表的分区字段默认也是该表中的字段,且依次排在表中字段的最后面。所以分区需要分区的字段只能放在后面,不能把顺序弄错。如果我们查询了四个字段的话,则会报错,因为该表加上分区字段也才三个。要注意系统是根据查询字段的位置推断分区名的,而不是字段名称。 show partitions dpartition; -- partition -- ct=beijing -- ct=beijing1 -- insert...select 往表中导入数据时,查询的字段个数必须和目标的字段个数相同,不能多,也不能少,否则会报错。但是如果字段的类型不一致的话,则会使用null值填充,不会报错。而使用load data形式往hive表中装载数据时,则不会检查。如果字段多了则会丢弃,少了则会null值填充。同样如果字段类型不一致,也是使用null值填充。
多个分区字段时,实现半自动分区(部分字段静态分区,注意静态分区字段要在动态前面)
1 2 3 4 5 6 7 8 9 10 11
-- 创建一个只有一个字段,两个分区字段的分区表 create table ds_parttion(id int ) partitioned by (state string ,ct string );
set hive.exec.dynamici.partition=true; set hive.exec.dynamic.partition.mode=nonstrict; insert overwrite table ds_parttion partition(state='china',ct) #state分区为静态,ct为动态分区,以查询的city字段为分区名 select id ,city from mytest_tmp2_p;
多个分区字段时,全部实现动态分区插入数据
1 2 3 4 5 6 7
set hive.exec.dynamici.partition=true; set hive.exec.dynamic.partition.mode=nonstrict; insert overwrite table ds_parttion partition(state,ct) select id ,country,city from mytest_tmp2_p; -- 注意:字段的个数和顺序不能弄错。
调优参数
1 2 3 4 5 6 7
set hive.exec.max.dynamic.partitions.pernode=100-- (默认100,一般可以设置大一点,比如1000) -- 表示每个maper或reducer可以允许创建的最大动态分区个数,默认是100,超出则会报错。
set hive.exec.max.dynamic.partitions =1000-- (默认值) -- 表示一个动态分区语句可以创建的最大动态分区个数,超出报错
set hive.exec.max.created.files =10000-(默认) 全局可以创建的最大文件个数,超出报错。
# 设置HVE在合适的时候自动启动优化 set hive.exec.mode.local.auto=true; # 当输入数据据量小于这个值的时候采用local,默认是128M 134217728 set hive.exec.mode.local.auto.inputbytes.max=5000000; #当输入文件数小于这个数的时候采用local 默认是4 set hive.exec.mode.local.auto.input.files.max=10;