一、启动后台运行

打出日志便于差错,如不需要可省略。
[hadoop ~]# nohup hive --service metastore >> ~/metastore.log 2>&1 &        ##hivemetastore
[hadoop ~]# nohup  hive --service hiveserver2 >> ~/hiveserver2.log 2>&1 &   ##hiveserver2,jdbc连接需要
建议指定日志路径,方便查找问题。否则都会存到nohup.out文件中。
~/hiveserver2.log

二、停止后台进程

1、先查看端口信息

[hadoop ~]# vi ../hive/conf/hive-site.xml
<property>
<name>hive.metastore.port</name>
<value> 9083 </value>
<description>Hive metastore listener port</description>
</property>
<property>
<name>hive.server2.thrift.port</name>
<value> 10000 </value>
<description>Port number of HiveServer2 Thrift interface when hive.server2.transport.mode is 'binary'.</description>
</property>

2、查看进程

1) 方法一、使用netstat查找端口号的进程

[hadoop ~]# netstat  -lnp|grep 9083
tcp    LISTEN     0      50        *:9083                  *:*                   users:(("java",pid= 33253 ,fd=546))
[hadoop ~]# netstat  -lnp|grep 10000
tcp    LISTEN     0      50        *:10000                 *:*                   users:(("java",pid= 33322 ,fd=572))

2) 方法二、centos 中,使用ss命令代替netstat查找端口号的进程

[hadoop ~]# ss -lnp|grep 9083
tcp    LISTEN     0      50        *:9083                  *:*                   users:(("java",pid= 33253 ,fd=546))
[hadoop ~]# ss -lnp|grep 10000
tcp    LISTEN     0      50        *:10000                 *:*                   users:(("java",pid= 33322 fd=572))

3) 方法三、查看hive进程

[hadoop ~]# ps -aux|grep hive

hadoop 33253 0.4 14.9 2330148 357316 pts/2 Sl 04:38 1:22 /usr/local/jdk1.8.0_161/bin/java -Xmx512m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/usr/local/hadoop/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/usr/local/hadoop -Dhadoop.id.str=hadoop -Dhadoop.root.logger=INFO,console -Djava.library.path=/usr/local/hadoop/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Djava.util.logging.config.file=/usr/local/hive2/conf/parquet-logging.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /usr/local/hive2/lib/hive-metastore-2.2.0.jar org.apache.hadoop. hive.metastore.HiveMetaStore

hadoop 33322 1.1 17.1 2331028 407888 pts/2 Sl 04:38 3:23 /usr/local/jdk1.8.0_161/bin/java -Xmx512m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/usr/local/hadoop/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/usr/local/hadoop -Dhadoop.id.str=hadoop -Dhadoop.root.logger=INFO,console -Djava.library.path=/usr/local/hadoop/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Djava.util.logging.config.file=/usr/local/hive2/conf/parquet-logging.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /usr/local/hive2/lib/hive-service-2.2.0.jar org.apache. hive.service.server.HiveServer2

3、根据方法1、2、3的pid,杀死进程

[hadoop ~]# kill -9 33253
[hadoop ~]# kill -9 33322

文件包含如下: 01_mysql-community-common-5.7.29-1.el7.x86_64.rpm 02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm 03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm 04_mysql-community-client-5.7.29-1.el7.x86_64.rpm 05_mysql-community-server-5.7.29-1.el7.x86_64.rpm apache- hive -3.1.2-bin.tar.gz hive _services.sh init.sql mysql-connector-java-5.1.48.jar remove_mysql.sh 遇到错误: Cannot create directory /tmp/ hive /root/3c8d401f-f9f0-46f1-92f5-5782be24f3d7. Name node is in safe mode. 问题原因: hdfs在 启动 开始时会进入安全模式,这时文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统 启动 的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入安全模式。在实践过程中,系统 启动 的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。 问题解决: 1、 启动 元数据管理服务(必须 启动 ,否则无法工作)前台 启动 :bin/ hive --service metastore后台 启动 :nohup bin/ hive --service metastore >> logs/metastore.log 2>&1 &2、 启动 客户端 Hive Shell方式(可以直接写SQL): bin/ hive 。 nohup hive --service metastore 2>&1 & 用来 启动 metastore nohup hive --service hive server2 2>&1 & 用来 启动 hive server2 可以通过查看日志,来确认是否正常 启动 。 注意!如果 hive server2 不 启动 ,jdbc将无法正常连接 原生 Hive 启动 停止 详解一、 Hive 启动 命令二、命令详解讲解 原生的 Hive 没有提供 启动 的脚本,需要调用命令来 启动 停止 启动 用nohup结合 hive 命令来 启动 启动 Hive 的时候,需要把metastore和 hive server2一起 启动 ,分别来讲解 一、 Hive 启动 命令 nohup hive --service metastore > /tmp/ hive metastore.log 2>&1 & nohup hive --service hive server2 > / 一键 启动 Hive 服务的shell脚本 配置文件内容 start.cnf hadoop->NameNode_SecondaryNameNode_DataNode_ResourceManager_NodeManager;start-dfs.sh_start-yarn.sh hive -> Hive MetaStore_ Hive Server2;nohup# hive #–service#metastore>/dev/null#2>&1#&_nohup# hive #–service#hi 利用Xshell中的xftp,将apache- hive 导入到 CentOS 7的/opt/source文件夹下。数据准备:在/opt/module/datas/student.txt 这个目录下准备数据。·修改 hive -site.xml文件。·配置 hive -env.sh文件。配置 hive -env.sh文件。显示default数据库中的表。执行完后,重启MySQL服务。添加mysql驱动包。配置 hive 环境变量。显示数据库中有几张表。