2、使用Hive分析nginx日志,网站的访问日志部分内容为:

cat /home/hadoop/hivetestdata/nginx.txt
192.168.1.128 - - [09/Jan/2015:12:38:08 +0800] "GET /avatar/helloworld.png HTTP/1.1" 200 1521 "http://write.blog.csdn.net/postlist" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.131 Safari/537.36"
183.60.212.153 - - [19/Feb/2015:10:23:29 +0800] "GET /o2o/media.html?menu=3 HTTP/1.1" 200 16691 "-" "Mozilla/5.0 (compatible; EasouSpider; +http://www.easou.com/search/spider.html)"
这条日志里面有九列,每列之间是用空格分割的,
每列的含义分别是客户端访问IP、用户标识、用户、访问时间、请求页面、请求状态、返回文件的大小、跳转来源、浏览器UA。
我们使用Hive中的正则表达式匹配这九列:
([^ ]*) ([^ ]*) ([^ ]*) (\[.*\]) (\".*?\") (-|[0-9]*) (-|[0-9]*) (\".*?\") (\".*?\")
于此同时我们可以在Hive中指定解析文件的序列化和反序列化解析器(SerDe),并且在Hive中内置了一个org.apache.hadoop.hive.serde2.RegexSerDe正则解析器,我们可以直接使用它。
3、建表语句 CREATE TABLE logs
(
host STRING,
identity STRING,
username STRING,
time STRING,
request STRING,
status STRING,
size STRING,
referer STRING,
agent STRING
)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.RegexSerDe'
WITH SERDEPROPERTIES (
"input.regex" = "([^ ]*) ([^ ]*) ([^ ]*) (\\[.*\\]) (\".*?\") (-|[0-9]*) (-|[0-9]*) (\".*?\") (\".*?\")",
"output.format.string" = "%1$s %2$s %3$s %4$s %5$s %6$s %7$s %8$s %9$s"
)
STORED AS TEXTFILE;

4、加载数据: load data local inpath '/home/hadoop/hivetestdata/nginx.txt' into table logs;
查询每小时的访问量超过100的IP地址: select substring(time, 2, 14) datetime ,host, count(*) as count
from logs
group by substring(time, 2, 14), host
having count > 100

sort by datetime, count;

首先对 正则 表达式、有限自动机、非确定性有限状态自动机、确定性有限状态自动机、汤普森构造法、汤普森提出的 正则 表达式搜索算法进行介绍,然后基于该算法,实现了一个 正则 表达式 解析器 通常情况下, Hive 导入的是单一分割符的数据。如果需要导入格式复杂一点的data,可以 使用 hive 自导的 Regex S erD e来实现。 Regex S erD e类是 hive 自带的, 使用 正则 表达式来支持复杂的data导入。 在 hive 0.11中,自带了两个 Regex S erD e类: org.apache.Hadoop. hive .contrib.s erd e2. Regex S erD e; org.apach ANTLR 是 ANother Tool for Language Recognition的首字母,是一个语言类工具,主要充当翻译器、编译器、识别器、或者是 分析 器这样的一个角色,也就是将一些列规则翻译成特定语言代码(Java, C/C++, C#, Python, Ruby)的一个工具。说直白点就是定义语法规则文件—>生成特定语言解析规则文件的代码—>被特定的语言所识别,想想我们的 Hive -Sql 是不是就是这样的,不然SQL怎么转化成MR程序。Antlr (ANother Tool for Langua 1)用户接口:Client 2)元数据:Metastore ( hive 和HDFS之间的映射关系),包括:表名、表所属的数据库、字段等 · 元数据将 hive 中的表和HDFS中的路径做一个映射。 · 默认存储在自带的 derby 数据库(erby默认只能单用户)中,推荐 使用 MySQL 存储 Metastore; 3)Hadoop 使用 HDFS 进行存储, 使用 MapReduce 进行计算。 4)驱动器:Driver ★ (1) 解析器 :将 SQL 转换成MR的任务需要的对应的元数据等准备工作; ..... 1. Hive 创建表时 正则 表达式与java代码中一致, Regex S erD e 中用\\来表示反转码create table inst_cn_3 (ip string,time string,mac string,lan string,ver string,lc string,pn string,reg string,vrf string,line string)ROW FORMAT S ERD E '... Hadoop生态圈 Hadoop生态圈包括HDFS 、MapReduce、Yarn三大核心外, Hive 、Hbase、Flume、Sqoop都是附属于Hadoop这个生态圈下工具 1.HDFS HDFS(Hadoop Distributed File System)是HDFS是一个分布式文件系统,他涉及hadoop生态圈中的数据存储,MapReduce计算模型基于存储在HDFS中的数据进行计算。 HDFS中文件在物理介质的存储方式是 分块(block)存储,块大小是可以可以配置参数进行调配的(dfs.bloc 一、 hive 建表优化 分区表:将表中的数据按照指定的规则份文件夹管理。 分桶表:对 hive 表分桶可以将表中记录按分桶键(字段)的哈希值分散进多个文件中,这些小文件称为桶。桶以文件为单位管理数据。分区针对的是数据的存储路径,分桶针对的是数据文件。如果查询的维度是分桶字段,查询的时候先确定数据所在的桶,提升查询效率。 进行join的时候,关联字段就是分桶字段,只有相同的桶之间的数据进行关联,从而提升关联效率。 设置下set hive .enforce.bucketing=true set mapreduce.jo 正则 表达式是一组字符,这些字符形成可以在字符串中搜索的模式。 正则 表达式可用于验证,例如验证信用卡号,用于搜索(即通过复杂的文本匹配)以及将匹配的文本替换为另一个字符串。 它还具有强大的多语言支持-学习一次即可在多种编程语言中 使用 它。 我见过很少有人对 regex 有所了解,并完全忽略了它。 我不怪他们。 regex 的语法很复杂,并且会像那些命令行语言一样带来许多麻烦,只会更糟。 但是,每件事...