您好,欢迎访问三七文档
Hive随谈(1)Hive随谈(一)–Hive入门Hive是什么在接触一个新的事物首先要回到的问题是:这是什么?这里引用Hivewiki上的介绍:HiveisadatawarehouseinfrastructurebuiltontopofHadoop.ItprovidestoolstoenableeasydataETL,amechanismtoputstructuresonthedata,andthecapabilitytoqueryingandanalysisoflargedatasetsstoredinHadoopfiles.HivedefinesasimpleSQL-likequerylanguage,calledQL,thatenablesusersfamiliarwithSQLtoquerythedata.Atthesametime,thislanguagealsoallowsprogrammerswhoarefamiliarwiththeMapReducefromworktobeabletoplugintheircustommappersandreducerstoperformmoresophisticatedanalysisthatmaynotbesupportedbythebuilt-incapabilitiesofthelanguage.Hive是建立在Hadoop上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。Hive定义了简单的类SQL查询语言,称为QL,它允许熟悉SQL的用户查询数据。同时,这个语言也允许熟悉MapReduce开发者的开发自定义的mapper和reducer来处理内建的mapper和reducer无法完成的复杂的分析工作。Hivedoesnotmandatereadorwrittendatabeinthe“Hiveformat”—thereisnosuchthing.HiveworksequallywellonThrift,controldelimited,oryourspecializeddataformats.PleaseseeFileFormatandSerDeinDeveloperGuidefordetails.Hive没有专门的数据格式。Hive可以很好的工作在Thrift之上,控制分隔符,也允许用户指定数据格式。Hive资源Hive本身提供了较丰富的文档,以下链接提供了Hive的一些基础文档:FaceBook镜像(被墙):[[]]Wiki页面:[[]]入门指南:[[]]查询语言指南:[[]]演示文稿:[[]]蓝图:[[]]大多数有关Hive的使用和特性的问题可以从以上的链接中寻找到答案。当然,由于Hive本身在不断的发展中,文档的更新速度很多时候都赶不上Hive本身的更新速度,若希望了解Hive的最新动态或者遇到Bug,可以加入Hive的邮件列表:*User:hive-user@hadoop.apache.org*Developer:hive-dev@hadoop.apache.orgHive的下载配置安装请参考入门指南,这里给出最基本的提纲:安装配置Hadoop。安装配置数据库(mysql等)。获得Hive源码或者可执行代码。wgettarxzfhive-0.5.0-bin.tar.gzcdhive-0.5.0配置Hive如何访问数据库,如何访问Hadoop。运行Hive。当看到Hive提示符‘Hive’的时候,恭喜,你可以开始你的Hive之旅了。Hive随谈(二)–Hive结构Hive的结构如图所示,主要分为以下几个部分:用户接口,包括CLI,Client,WUI。元数据存储,通常是存储在关系数据库如mysql,derby中。解释器、编译器、优化器、执行器。Hadoop:用HDFS进行存储,利用MapReduce进行计算。1.用户接口主要有三个:CLI,Client和WUI。其中最常用的是CLI,Cli启动的时候,会同时启动一个Hive副本。Client是Hive的客户端,用户连接至HiveServer。在启动Client模式的时候,需要指出HiveServer所在节点,并且在该节点启动HiveServer。WUI是通过浏览器访问Hive。2.Hive将元数据存储在数据库中,如mysql、derby。Hive中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。3.解释器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。4.Hive的数据存储在HDFS中,大部分的查询由MapReduce完成(包含*的查询,比如select*fromtbl不会生成MapRedcue任务)。Hive元数据存储Hive将元数据存储在RDBMS中,有三种模式可以连接到数据库:SingleUserMode:此模式连接到一个In-memory的数据库Derby,一般用于UnitTest。MultiUserMode:通过网络连接到一个数据库中,是最经常使用到的模式。RemoteServerMode:用于非Java客户端访问元数据库,在服务器端启动一个MetaStoreServer,客户端利用Thrift协议通过MetaStoreServer访问元数据库。Hive的数据存储首先,Hive没有专门的数据存储格式,也没有为数据建立索引,用户可以非常自由的组织Hive中的表,只需要在创建表的时候告诉Hive数据中的列分隔符和行分隔符,Hive就可以解析数据。其次,Hive中所有的数据都存储在HDFS中,Hive中包含以下数据模型:Table,ExternalTable,Partition,Bucket。1.Hive中的Table和数据库中的Table在概念上是类似的,每一个Table在Hive中都有一个相应的目录存储数据。例如,一个表pvs,它在HDFS中的路径为:/wh/pvs,其中,wh是在hive-site.xml中由${hive.metastore.warehouse.dir}指定的数据仓库的目录,所有的Table数据(不包括ExternalTable)都保存在这个目录中。2.Partition对应于数据库中的Partition列的密集索引,但是Hive中Partition的组织方式和数据库中的很不相同。在Hive中,表中的一个Partition对应于表下的一个目录,所有的Partition的数据都存储在对应的目录中。例如:pvs表中包含ds和city两个Partition,则对应于ds=20090801,ctry=US的HDFS子目录为:/wh/pvs/ds=20090801/ctry=US;对应于ds=20090801,ctry=CA的HDFS子目录为;/wh/pvs/ds=20090801/ctry=CA3.Buckets对指定列计算hash,根据hash值切分数据,目的是为了并行,每一个Bucket对应一个文件。将user列分散至32个bucket,首先对user列的值计算hash,对应hash值为0的HDFS目录为:/wh/pvs/ds=20090801/ctry=US/part-00000;hash值为20的HDFS目录为:/wh/pvs/ds=20090801/ctry=US/part-000204.ExternalTable指向已经在HDFS中存在的数据,可以创建Partition。它和Table在元数据的组织上是相同的,而实际数据的存储则有较大的差异。Table的创建过程和数据加载过程(这两个过程可以在同一个语句中完成),在加载数据的过程中,实际数据会被移动到数据仓库目录中;之后对数据对访问将会直接在数据仓库目录中完成。删除表时,表中的数据和元数据将会被同时删除。ExternalTable只有一个过程,加载数据和创建表同时完成(CREATEEXTERNALTABLE……LOCATION),实际数据是存储在LOCATION后面指定的HDFS路径中,并不会移动到数据仓库目录中。当删除一个ExternalTable时,仅删除Hive随谈(三)–Hive和数据库的异同摘要:由于Hive采用了SQL的查询语言HQL,因此很容易将Hive理解为数据库。其实从结构上来看,Hive和数据库除了拥有类似的查询语言,再无类似之处。本文将从多个方面来阐述Hive和数据库的差异。数据库可以用在Online的应用中,但是Hive是为数据仓库而设计的,清楚这一点,有助于从应用角度理解Hive的特性。Hive和数据库的比较查询语言HQLSQL数据存储位置HDFSRawDevice或者LocalFS数据格式用户定义系统决定数据更新支持不支持索引无有执行MapRedcueExecutor执行延迟高低可扩展性高低数据规模大小1.查询语言。由于SQL被广泛的应用在数据仓库中,因此,专门针对Hive的特性设计了类SQL的查询语言HQL。熟悉SQL开发的开发者可以很方便的使用Hive进行开发。2.数据存储位置。Hive是建立在Hadoop之上的,所有Hive的数据都是存储在HDFS中的。而数据库则可以将数据保存在块设备或者本地文件系统中。3.数据格式。Hive中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、”\t”、”\x001″)、行分隔符(”\n”)以及读取文件数据的方法(Hive中默认有三个文件格式TextFile,SequenceFile以及RCFile)。由于在加载数据的过程中,不需要从用户数据格式到Hive定义的数据格式的转换,因此,Hive在加载的过程中不会对数据本身进行任何修改,而只是将数据内容复制或者移动到相应的HDFS目录中。而在数据库中,不同的数据库有不同的存储引擎,定义了自己的数据格式。所有数据都会按照一定的组织存储,因此,数据库加载数据的过程会比较耗时。4.数据更新。由于Hive是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。因此,Hive中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。而数据库中的数据通常是需要经常进行修改的,因此可以使用INSERTINTO…VALUES添加数据,使用UPDATE…SET修改数据。5.索引。之前已经说过,Hive在加载数据的过程中不会对数据进行任何处理,甚至不会对数据进行扫描,因此也没有对数据中的某些Key建立索引。Hive要访问数据中满足条件的特定值时,需要暴力扫描整个数据,因此访问延迟较高。由于MapReduce的引入,Hive可以并行访问数据,因此即使没有索引,对于大数据量的访问,Hive仍然可以体现出优势。数据库中,通常会针对一个或者几个列建立索引,因此对于少量的特定条件的数据的访问,数据库可以有很高的效率,较低的延迟。由于数据的访问延迟较高,决定了Hive不适合在线数据查询。6.执行。Hive中大多数查询的执行是通过Hadoo
本文标题:Hive 随谈
链接地址:https://www.777doc.com/doc-6237589 .html