其实Hive的安装配置应该放在第二章来介绍,晚了些,希望对Hive初学者有用。
三、Hive的安装配置
3.1 环境需求
- Hadoop Client
- Mysql
3.2 下载并解压Hive0.13.1安装包
下载地址:http://archive.apache.org/dist/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz
cp apache-hive-0.13.1-bin.tar.gz /usr/local
cd /usr/local
tar –xzvf apache-hive-0.13.1-bin.tar.gz
配置环境变量(如果不是root用户,配置自己的~/.bash_profile即可):
vi /etc/profile
export HIVE_HOME=/usr/local/apache-hive-0.13.1-bin
export PATH=$HIVE_HOME/bin: $PATH
source /etc/profile
3.3 在Mysql中建立Hive元数据库和表
root进入Mysql;
CREATE DATABASE hive;
//下面给所有的ip都赋了访问权限,安全起见,
//一般这里只需要对安装Hive Client端的机器IP赋权即可
GRANT ALL ON hive.* TO hive@’%’ IDENTIFIED BY ‘hive1234′;
flush privileges;
3.4 配置hive-site.xml
cd $HIVE_HOME/conf/
新建hive-site.xml, 里面是以下内容:
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/hivedata/warehouse/</value> <description>Hive在HDFS上的根目录</description> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://172.16.212.102:3306/hive?createDatabaseIfNotExist=true</value> <description>Hive元数据库的连接串,红色为数据库名</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Hive元数据库JDBC驱动</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>Hive元数据库用户名</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive1234</value> <description>Hive元数据库密码</description> </property> <property> <name>datanucleus.autoCreateTables</name> <value>true</value> <description>不存在时,自动创建Hive元数据表</description> </property> <property> <name>datanucleus.autoCreateColumns</name> <value>true</value> <description>不存在时,自动创建Hive元数据列</description> </property> <property> <name>datanucleus.fixedDatastore</name> <value>false</value> </property> <property> <name>datanucleus.autoStartMechanism</name> <value>SchemaTable</value> </property> </configuration>
这些是必须的参数,配好就行了,特别注意最后几个参数,其他可根据实际需求来配置。
3.5 进入Hive-Cli
由于3.3中已经配置了环境变量,因此直接执行hive命令,即可进入Hive-Cli.
如:
[lxw1234@dev ~]$ hive
Logging initialized using configuration in file:/usr/local/apache-hive-0.13.1-bin/conf/hive-log4j.properties
hive>show databases;
OK
default
Time taken: 0.42 seconds, Fetched: 1 row(s)
hive>
第一次执行,Hive需要在元数据库中建立相关的表,因此会稍微感觉慢一些。
3.6 Hive的日志
Hive的日志一般存放在操作系统本地的/tmp/${user.name}/hive.log中,该文件路径由
$HIVE_HOME/conf/hive-log4j.properties中指定,可自己修改该路径。
相关推荐
apache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tarapache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tarapache-hive-2.1.1-bin.tar apache-hive-2.1.1-...
含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-3.1.2-bin.tar.gz 含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-3.1.2-bin.tar.gz 含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-...
02、hive-exec-2.1.1-cdh6.3.1.jar 03、hive-jdbc-2.1.1-cdh6.3.1.jar 04、hive-jdbc-2.1.1-cdh6.3.1-standalone.jar 05、hive-metastore-2.1.1-cdh6.3.1.jar 06、hive-service-2.1.1-cdh6.3.1.jar 07、libfb303-...
dbeaver连接hive时需要的驱动包hive-jdbc-uber-2.6.5.0-292.jar
赠送jar包:flink-connector-hive_2.11-1.12.7.jar; 赠送原API文档:flink-connector-hive_2.11-1.12.7-javadoc.jar; 赠送源代码:flink-connector-hive_2.11-1.12.7-sources.jar; 赠送Maven依赖信息文件:flink-...
hive-jdbc-3.1.2-standalone适用于linux
hive-jdbc-2.1.1-cdh6.2.0(ieda等jdbc链接hive2.1.1);cdh6.2.0安装的hive2.1.1
hive-jdbc-uber-2.6.5.0-292.jar 驱动下载,hive-jdbc-uber-2.6.5.0-292.jar,hive-jdbc-uber-2.6.5.0-292.jar
hive-jdbc-uber-2.6.5.0-292.jar DbVisualizer (as of version 9.5.5) Below is an example configuration using DbVisualizer: Open the Diver Manager dialog ("Tools" > "Driver Manager...") and hit the ...
hive-jdbc-uber-2.6.5.0-292.jar驱动
hive-jdbc-2.3.7-standalone,可用dbeaver连接hive数据库,在工具中进行数据库记录的新增改查
hive-jdbc-1.2.1-standalone.jar hive-jdbc驱动jar包,欢迎下载
Hive连接的jar包——hive-jdbc-3.1.2-standalone.jar,使用数据库连接软件连接数据仓库时需要使用相应的驱动器驱动,希望对大家有所帮助
用java连接hive所必须的jar包,包括hadoop-commmon-2.6.4以及hive-jdbc-1.2.1-standalone
Missing Hive Execution Jar: /hive/hive1.2.1/lib/hive-exec-*.jar
jdbc连接hive所需的一个包 ( hive-jdbc-3.1.2.jar)
被编译的hive-hbase-handler-1.2.1.jar,用于在Hive中创建关联HBase表的jar,解决创建Hive关联HBase时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. org.apache.hadoop....
DBeaver链接hive驱动包下载: hive-jdbc-uber-2.6.5.0-292.jar
hive-jdbc-2.1.0.jar