一、启动后台运行
打出日志便于差错,如不需要可省略。
[hadoop ~]# nohup hive --service metastore >> ~/metastore.log 2>&1 & ##hivemetastore
[hadoop ~]# nohup hive --service hiveserver2 >> ~/hiveserver2.log 2>&1 & ##hiveserver2,jdbc连接需要
建议指定日志路径,方便查找问题。否则都会存到nohup.out文件中。
~/hiveserver2.log
二、停止后台进程
1、先查看端口信息
[hadoop ~]#
vi ../hive/conf/hive-site.xml
<property>
<name>hive.metastore.port</name>
<value>
9083
</value>
<description>Hive metastore listener port</description>
</property>
<property>
<name>hive.server2.thrift.port</name>
<value>
10000
</value>
<description>Port number of HiveServer2 Thrift interface when hive.server2.transport.mode is 'binary'.</description>
</property>
2、查看进程
1) 方法一、使用netstat查找端口号的进程
[hadoop ~]#
netstat -lnp|grep 9083
tcp LISTEN 0 50 *:9083 *:* users:(("java",pid=
33253
,fd=546))
[hadoop ~]#
netstat -lnp|grep 10000
tcp LISTEN 0 50 *:10000 *:* users:(("java",pid=
33322
,fd=572))
2) 方法二、centos 中,使用ss命令代替netstat查找端口号的进程
[hadoop ~]#
ss -lnp|grep 9083
tcp LISTEN 0 50 *:9083 *:* users:(("java",pid=
33253
,fd=546))
[hadoop ~]#
ss -lnp|grep 10000
tcp LISTEN 0 50 *:10000 *:* users:(("java",pid=
33322
fd=572))
3) 方法三、查看hive进程
[hadoop ~]#
ps -aux|grep hive
hadoop
33253
0.4 14.9 2330148 357316 pts/2 Sl 04:38 1:22 /usr/local/jdk1.8.0_161/bin/java -Xmx512m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/usr/local/hadoop/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/usr/local/hadoop -Dhadoop.id.str=hadoop -Dhadoop.root.logger=INFO,console -Djava.library.path=/usr/local/hadoop/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Djava.util.logging.config.file=/usr/local/hive2/conf/parquet-logging.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /usr/local/hive2/lib/hive-metastore-2.2.0.jar org.apache.hadoop.
hive.metastore.HiveMetaStore
hadoop
33322
1.1 17.1 2331028 407888 pts/2 Sl 04:38 3:23 /usr/local/jdk1.8.0_161/bin/java -Xmx512m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/usr/local/hadoop/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/usr/local/hadoop -Dhadoop.id.str=hadoop -Dhadoop.root.logger=INFO,console -Djava.library.path=/usr/local/hadoop/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Djava.util.logging.config.file=/usr/local/hive2/conf/parquet-logging.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /usr/local/hive2/lib/hive-service-2.2.0.jar org.apache.
hive.service.server.HiveServer2
3、根据方法1、2、3的pid,杀死进程
[hadoop ~]# kill -9
33253
[hadoop ~]# kill -9
33322
文件包含如下:
01_mysql-community-common-5.7.29-1.el7.x86_64.rpm
02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm
03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm
04_mysql-community-client-5.7.29-1.el7.x86_64.rpm
05_mysql-community-server-5.7.29-1.el7.x86_64.rpm
apache-
hive
-3.1.2-bin.tar.gz
hive
_services.sh
init.sql
mysql-connector-java-5.1.48.jar
remove_mysql.sh
遇到错误:
Cannot create directory /tmp/
hive
/root/3c8d401f-f9f0-46f1-92f5-5782be24f3d7. Name node is in safe mode.
问题原因:
hdfs在
启动
开始时会进入安全模式,这时文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统
启动
的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入安全模式。在实践过程中,系统
启动
的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。
问题解决:
1、
启动
元数据管理服务(必须
启动
,否则无法工作)前台
启动
:bin/
hive
--service metastore后台
启动
:nohup bin/
hive
--service metastore >> logs/metastore.log 2>&1 &2、
启动
客户端
Hive
Shell方式(可以直接写SQL): bin/
hive
。
nohup
hive
--service metastore 2>&1 &
用来
启动
metastore
nohup
hive
--service
hive
server2 2>&1 &
用来
启动
hive
server2
可以通过查看日志,来确认是否正常
启动
。
注意!如果
hive
server2 不
启动
,jdbc将无法正常连接
原生
Hive
的
启动
和
停止
详解一、
Hive
启动
命令二、命令详解讲解
原生的
Hive
没有提供
启动
的脚本,需要调用命令来
启动
和
停止
,
启动
用nohup结合
hive
命令来
启动
,
启动
Hive
的时候,需要把metastore和
hive
server2一起
启动
,分别来讲解
一、
Hive
启动
命令
nohup
hive
--service metastore > /tmp/
hive
metastore.log 2>&1 &
nohup
hive
--service
hive
server2 > /
一键
启动
Hive
服务的shell脚本
配置文件内容 start.cnf
hadoop->NameNode_SecondaryNameNode_DataNode_ResourceManager_NodeManager;start-dfs.sh_start-yarn.sh
hive
->
Hive
MetaStore_
Hive
Server2;nohup#
hive
#–service#metastore>/dev/null#2>&1#&_nohup#
hive
#–service#hi
利用Xshell中的xftp,将apache-
hive
导入到
CentOS
7的/opt/source文件夹下。数据准备:在/opt/module/datas/student.txt 这个目录下准备数据。·修改
hive
-site.xml文件。·配置
hive
-env.sh文件。配置
hive
-env.sh文件。显示default数据库中的表。执行完后,重启MySQL服务。添加mysql驱动包。配置
hive
环境变量。显示数据库中有几张表。