#配置HADOOP地址
# Set HADOOP_HOME to point to a specific hadoop install directory
# HADOOP_HOME=${bin}/../../hadoop
export HADOOP_HOME=
5. 配置hive-site.xml
cp $HIVE_HOME/conf/hive-default.xml.template ./hive-site.xml
vim hive-site.xml
# 在文件开始插入一下内容,主要是数据库的连接信息
<property>
<name>javax.jdo.option.ConnectionUserName</name>用户名(这是新添加的,记住删除配置文件原有的哦!)
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>密码
<value>123456</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>mysql
<value>jdbc:mysql://192.168.1.1:3306/hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>mysql驱动程序
<value>com.mysql.jdbc.Driver</value>
</property>
6. 复制mysql的驱动程序到 $HIVE_HOME/lib下面
mysql-connector-java-5.1.39-bin.jar
7. 确保hive-site.xml中配置的数据库连接信息已经创建好
8. 测试
报错:Failed with exception java.io.IOException:java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:user.name}
解决方案:
https://blog.csdn.net/u011817217/article/details/88814757
二、Hive命令行
输入$HIVE_HOME/bin/hive –H 或者 –help 可以显示帮助选项:
1、 -i 初始化 HQL 文件。
2、 -e 从命令行执行指定的 HQL
3、 -f 执行 HQL 脚本
4、 -v 输出执行的 HQL 语句到控制台
5、 -p <port> connect to Hive Server on port number
6、 -hiveconf x=y Use this to set hive/hadoop configuration variables.
$HIVE_HOME/bin/hive -e 'show databases'
#执行本地HQL脚本文件
$HIVE_HOME/bin/hive -f /home/my/hive-script.sql
#执行hdfs上HQL脚本文件
$HIVE_HOME/bin/hive -f hdfs://<namenode>:<port>/hive-script.sql
#初始化HQL
$HIVE_HOME/bin/hive -i /home/my/hive-init.sql
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a'
--hiveconf hive.exec.compress.output=true
--hiveconf mapred.reduce.tasks=32
三、Hive参数配置
开发 Hive 应用时,不可避免地需要设定 Hive 的参数。设定 Hive 的参数可以调优 HQL 代码的执行效率,或帮助定位问题。
然而实践中经常遇到的一个问题是,为什么设定的参数没有起作用?这通常是错误的设定方式导致的。
根据Hive参数配置的生效作用域,可以分为三类:
1. 全局有效(配置文件:hive-site.xml)
用户自定义配置文件:$HIVE_HOME/conf/hive-site.xml
默认配置文件:$HIVE_HOME/conf/hive-default.xml
用户自定义配置会覆盖默认配置。
另外,Hive 也会读入 Hadoop 的配置,因为 Hive 是作为 Hadoop 的客户端启动的,Hive 的配置会覆盖 Hadoop 的配置。
配置文件的设定对本机启动的所有 Hive 进程都有效。(hive-en.sh中配置了HADOOP_HOME)
2. Hive启动实例有效(命令行参数)
1)启动 Hive(客户端或 Server 方式)时,可以在命令行添加-hiveconf 来设定参数
例如:bin/hive -hiveconf hive.root.logger=INFO,console
2)设定对本次启动的 Session(对于 Server 方式启动,则是所有请求的 Sessions)有效。
3. Hive的连接Session有效(参数声明)
可以在 HQL 中使用 SET 关键字设定参数,这一设定的作用域也是 session 级的。
set hive.exec.reducers.bytes.per.reducer=<number> 每个 reduce task 的平均负载数据量
set hive.exec.reducers.max=<number> 设置 reduce task 数量的上限
set mapreduce.job.reduces=<number> 指定固定的 reduce task 数量
说明:上述三种设定方式的优先级依次递增。即参数声明覆盖命令行参数,命令行参数覆盖配置文件设定。
一、Hive安装1. 官网下载hive安装包并解压;2. 修改环境变量vim ~/.bash_profileexport HIVE_HOME=export PATH=$PATH:$HIVE_HOME/binsource ~/.bash_profile3.执行hive --version4. 配置hive-env.shcp $HIVE_HOME/conf/...
1、Fetch 抓取
Fetch 抓取是指
Hive
中对某些情况的查询可以不必
使用
MapReduce 计算。例如: SELECT * FROM employees;在这种情况下,
Hive
可以简单地读取 employee 对应的存储目录 下的文件,然后输出查询结果到控制台。
在
hive
-default.xml.template 文件中
hive
.fetch.task.conversion ...
一、
使用
需求
工作中经常会
需要
与外围系统打交道,由于外围系统和本系统不处于同一个Hadoop集群下,且不具有访问本系统的权限,所以基本上大数据量的接口都是以文件的方式进行传输。如何快速、便捷的将文件入Spark库中?
通过SparkSQL中创建外部表的方式就能够很好地解决这一需求。
二、解决方案
1. hdfs上创建存放外部表数据文件的目录
hdfs dfs -mkdir -p /hu...
在兼容
Hive
技术的前提下,推进SparkSQL技术的
使用
,那么就会衍生出一个问题:如何让
Hive
和SparkSQL数据共享?,比如在
Hive
中操作,然后在SparkSQL中能够看到变化,反之亦然。
注意:记住一个前提,先
使用
Hive
在先,后引入SparkSQL,笔者在操作过程中发现了一个问题,之前SparkSQL中的数据会看不到,只能看到
Hive
中的,这个问题有待进一步研究。
按照博文https://blog.csdn.net/u011817217/article/details/88813874
安装
Hive
,在启动
Hive
并show databases时,报错:
Failed with exception java.io.IOException:java.lang.IllegalArgumentException: java.net.URISyntaxExcept...
使用pip命令安装第三方包时报错:\lib\site-packages\pip\_vendor\urllib3\response.py", line 397
qq_41715746:
指定国内镜像网站这个方法,解决了我遇到的问题。
我的报错虽然跟楼主不一样,但是指定国内网站后迅速安装完了而且也没有报错。
使用pip命令安装第三方包时报错:\lib\site-packages\pip\_vendor\urllib3\response.py", line 397
悦目两三枝:
使用pip命令安装第三方包时报错:\lib\site-packages\pip\_vendor\urllib3\response.py", line 397
可可乐的编程之旅:
python.exe -m pip install --upgrade pip
pip 更新代码
使用pip命令安装第三方包时报错:\lib\site-packages\pip\_vendor\urllib3\response.py", line 397
Ss7est:
Scala中Seq转Map的方法(:_*)
并州刺史: