天天看点

hadoop——hive学习一、前言二、什么是hive三、hive的使用场景四、hive的安装五、hive之shell学习六:hive之API操作:

Hive 是一个基于 Hadoop 文件系统之上的数据仓库架构。它可以将结构化的数据文件映射为一张数据库表,并提供简单的 sql 查询功能。还可以将 sql 语句转换为 MapReduce 任务运行。
Hive在hadoop生态圈中属于数据仓库的角色。他能够<b>管理**hadoop中的数据,同时可以</b>查询**hadoop中的数据。本质上讲,hive是一个<b>SQL解析引擎</b>。Hive可以把<b>SQL查询</b>转换为MapReduce中的job,然后在Hadoop上运行。
<b>Hive</b>诞生于 facebook 的日志分析需求,面对海量的结构化数据,Hive在Facebook主要用于日志的数据报表、统计分析、数据挖掘等功能。Hive主要是可用类似于SQL的语法,对HDFS海量数据库中的数据进行查询、统计、更新等操作。形象地说Hive更像一个数据仓库管理工具。 因为Hive基于Hadoop,所以可以自定义Hadoop的Map Reduce流程,从Hive中调用。Hive是对Hadoop的一个上层封装,他将HQL翻译成对Hadoop 中Map Reduce的调用。
略过。网上教程。
进入shell交互命令
查看hive的shell命令帮助
一:查看meatstore数据库中的表 二:查询数据库 三:创建表及查询 <b>四:多字段数据表的创建</b> **************************************************************** CREATE TABLE  records(year String,tempaature INT,quality INT) ROW FORMAT DELEMITED FIELDS BY TERMINATED BY '\t'; 五:加载数据到hive表t1中 <b>如果是hdfs文件路径的话:load data inpath 'HDFS路径' into table tableName</b> 六:删除表 <b>七:从其他表导入数据:</b> INERT OVERWRITE TABLE T1 SELECT * FROM T2; <b>八:复制表结构不复制数据</b> CREATE TABLE T3 LIKE T2; 九:HIVE视图 CREATE VIEW V_HIVE AS SELECT A,B FROM HIVE_3 WHERE C&gt;30;

<b>hive分区</b>

<b>分区语法:</b> create table if not exists employees( name string, salary string, subordinates array&lt;string&gt;, deductions map&lt;String,float&gt;, address struct&lt;street:string,city:string,state:string,zip:int&gt; ) partitioned by (dtstring,typestring) row format delimited fields terminated by'\t' collection items terminated by',' mapkeys terminated by':' lines terminated by'\n' stored as textfile <b>分区表操作:</b> <b>alter table <b>employees </b>add if not exists partion(country ='xxx'[,state='yyyy'])</b> <b>Alter table employees drop if exists partition(country='xxx'[,state='yyyy’)</b>

<b>hive分桶</b>

<b>对于每一个表(table)或者分区,Hive可以进一步组织成桶,也就是说捅是更为细粒度的数据范困划分。</b> Hive是针对某一列进行分捅。 Hive采用对列值哈希,然后除以捅的个数求余的方式决定该条记录存放在哪个桶当中。 <b>好处</b> 获得更高的查询处理效率。 使取样(sampling)更高效 <b>分桶语法</b> create table bucketed_user(id string,name string)clustered by(id) sorted by(name)into 4 buckets row format delimited fields terminated by'\t' stored as textfile; <b>设置</b> set hive.enforce.bucketing =true; <b>插入数据</b> insert overwrite table bucketed_user select addr ,name from testtable;
<b>一、hive分区:</b> <b>1、在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。</b> 2、分区表指的是在创建表时指定的partition的分区空间。 3、如果需要创建有分区的表,需要在create表的时候调用可选参数partitioned by,详见表创建的语法结构。 二、技术细节 1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。 2、表和列名不区分大小写。 3、分区是以字段的形式在表结构中存在,通过describe table命令可以查看到字段存在,但是该字段不存放实际的数据内容,仅仅是分区的表示。 4、建表的语法(建分区可参见PARTITIONED BY参数): CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path] 5、分区建表分为2种,一种是单分区,也就是说在表文件夹目录下只有一级文件夹目录。另外一种是多分区,表文件夹下出现多文件夹嵌套模式。 a、单分区建表语句:create table day_table (id int, content string) partitioned by (dt string);单分区表,按天分区,在表结构中存在id,content,dt三列。 b、双分区建表语句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。 表文件夹目录示意图(多分区表): <a href="https://link.jianshu.com?t=http://hi.csdn.net/attachment/201007/21/0_1279701454lpF1.gif" target="_blank"></a> 6、添加分区表语法(表已创建,在此基础上添加分区): ALTER TABLE table_name ADD partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ... partition_spec: : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...) 用户可以用ALTER TABLE ADD PARTITION来向一个表中增加分区。当分区名是字符串时加引号。例: ALTER TABLE day_table ADD PARTITION (dt='2008-08-08', hour='08') location '/path/pv1.txt' PARTITION (dt='2008-08-08', hour='09') location '/path/pv2.txt'; 7、删除分区语法: ALTER TABLE table_name DROP partition_spec, partition_spec,... 用户可以用ALTER TABLE DROP PARTITION来删除分区。分区的元数据和数据将被一并删除。例: ALTER TABLE day_hour_table DROP PARTITION (dt='2008-08-08', hour='09'); 8、数据加载进分区表中语法: LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)] 例: LOAD DATA INPATH '/user/pv.txt' INTO TABLE day_hour_table PARTITION(dt='2008-08- 08', hour='08'); LOAD DATA local INPATH '/user/hua/*' INTO TABLE day_hour partition(dt='2010-07- 07'); 当数据被加载至表中时,不会对数据进行任何转换。Load操作只是将数据复制至Hive表对应的位置。数据加载时在表下自动创建一个目录,文件存放在该分区下。 9、基于分区的查询的语句: SELECT day_table.* FROM day_table WHERE day_table.dt&gt;= '2008-08-08'; 10、查看分区语句: hive&gt; show partitions day_hour_table; OK dt=2008-08-08/hour=08 dt=2008-08-08/hour=09 dt=2008-08-09/hour=09 <b>11、hive两种分区:静态分区与动态分区的差别</b> 在加载数据的时候,动态分区不需要指定分区KEY的值,会根据KEY对应列的值自动分区写入,如果改列值对应分区的目录未创建,会自动创建并写入。 例如: 三、总结 1、在Hive中,表中的一个Partition对应于表下的一个目录,所有的Partition的数据都存储在最字集的目录中。 2、总的说来partition就是辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行管理。 <b></b>
<b>1.确保hive服务打开</b> <b>2.java代码连接hiveserver</b> private static String riverName="org.apache.hadoop.hive.jdbc.HiveDriver"; public static void main(String[] args)throws Exception {       try{            Class.forName(driverName);            }catch(ClassNotFoundException e) {                     e.printStackTrace();                     System.exit(1);             } Connection con = DriverManager.getConnection("jdbc:hive://localhost:10002/default","wyp",""); Statement stmt = con.createStatement(); String tableName ="wyphao"; stmt.execute("drop table if exists "+ tableName); stmt.execute("create table "+ tableName +" (key int, value string)"); System.out.println("Create table success!"); // show tables String sql ="show tables '"+ tableName +"'"; System.out.println("Running: "+ sql); ResultSet res = stmt.executeQuery(sql); if(res.next()) {      System.out.println(res.getString(1)); } // describe table sql ="describe "+ tableName; res = stmt.executeQuery(sql); while(res.next()) {       System.out.println(res.getString(1) +"\t"+ res.getString(2)); sql ="select * from "+ tableName;      System.out.println(String.valueOf(res.getInt(1)) +"\t"                                 + res.getString(2)); sql ="select count(1) from "+ tableName;             System.out.println(res.getString(1));