ReleasePublicNetworkAddress
UpgradeDBInstanceEngineVersion
ModifyDBInstanceConnectionString
UpgradeDBInstanceKernelVersion
DescribeKernelReleaseNotes
DestroyInstance
DescribeDBInstances
DescribeDBInstanceAttribute
MigrateAvailableZone
ModifyInstanceVpcAuthMode
ModifyDBInstanceMaintainTime
ResetAccountPassword
DescribeAccounts
ModifyAccountDescription
DescribeAuditPolicy
DescribeAuditRecords
DescribeAuditFiles
DescribeAuditLogFilter
ModifyAuditLogFilter
DescribeSecurityIps
ModifySecurityIps
ModifyDBInstanceSSL
DescribeDBInstanceSSL
DescribeSlowLogRecords
DescribeRunningLogRecords
DescribeErrorLogRecords
性能监控管理
DescribeDBInstancePerformance
DescribeParameterModificationHistory
DescribeParameterTemplates
ModifyParameters
DescribeParameters
CreateRecommendationTask
DescribeAvailableTimeRange
DescribeIndexRecommendation
备份与恢复
DescribeBackupPolicy
ModifyBackupPolicy
CreateBackup
DescribeBackups
RestoreDBInstance
实例规格表
实例状态表
性能监控表
API概览
SDK参考
SDK参考
排查 Mongo Shell 登录问题
如何查询及限制连接数
负载高问题
云数据库MongoDB版可购买规格
云数据库MongoDB版是否支持嵌套
云数据库MongoDB版和MongoDB有什么关系?
云数据库MongoDB版是否支持动态添加节点
云数据库MongoDB版如何备份和恢复
云数据库MongoDB与自建MongoDB的区别
云数据库MongoDB版是否支持Mongoose组件
MongoDB是否支持KMS加密
云数据库MongoDB版支持及限制哪些命令?
云数据库 MongoDB 版使用的数据库版本是什么?
云数据库MongoDB版的监控采集粒度是多少
变更存储空间对实例有什么影响
MongoDB是否支持Mongoose组件
MongoDB是否支持无密码登录
云数据库MongoDB版日志清理策略
连接数据库
云数据库MongoDB支持哪些语言的客户端进行连接?
Windows 系统安装和使用 Mongo Shell
Mongo Shell连接时显示Connection reset by peers错误
如何通过DMS登录MongoDB数据库
云数据库MongoDB版是否支持免密访问
如何修改MongoDB的数据库密码
云数据库MongoDB是否支持外网访问
如何处理登录失败的问题?
客户端登录MongoDB数据库报错
性能/存储空间
如何获取耗时比较长的慢请求信息?
某个请求一直处理没有结束,能否强制结束?
云数据库MongoDB版日志清理策略
云数据库MongoDB版释放数据库空间
账号/权限管理
实例创建时指定的root账号拥有什么权限?
云数据库MongoDB版上如何创建账号
云数据库MongoDB版如何配置RAM用户(子账号)授权
报错/异常处理
实例的节点故障处理机制
云数据库MongoDB中删除集合提示false
线上运行的服务会产生大量的运行及访问日志,日志里会包含一些错误、警告及用户行为等信息。通常服务会以文本的形式记录日志信息,这样可读性强,方便于日常定位问题。但当产生大量的日志之后,要想从大量日志里挖掘出有价值的内容,则需要对数据进行进一步的存储和分析。
本文以存储Web服务的访问日志为例,介绍如何使用MongoDB来存储、分析日志数据,让日志数据发挥最大的价值。本文的内容同样适用于其他的日志存储型应用。
Web服务器日志
一个典型的Web服务器的访问日志类似如下,包含访问来源、用户、访问的资源地址、访问结果、用户使用的系统及浏览器类型等。
127.0.0.1 - frank [10/Oct/2000:13:55:36 -0700] "GET /apache_pb.gif HTTP/1.0" 200 2326 "[http://www.example.com/start.html](http://www.example.com/start.html)" "Mozilla/4.08 [en] (Win98; I ;Nav)"
最简单存储这些日志的方法是,将每行日志存储在一个单独的文档里,每行日志在MongoDB里的存储模式如下所示:
_id: ObjectId('4f442120eb03305789000000'),
line: '127.0.0.1 - frank [10/Oct/2000:13:55:36 -0700] "GET /apache_pb.gif HTTP/1.0" 200 2326 "[http://www.example.com/start.html](http://www.example.com/start.html)" "Mozilla/4.08 [en] (Win98; I ;Nav)"'
上述模式虽然能解决日志存储的问题,但这些数据分析起来比较麻烦,因为文本分析并不是MongoDB所擅长的,更好的办法是把一行日志存储到MongoDB的文档里前,先提取出各个字段的值。如下所示,上述的日志被转换为一个包含很多个字段的文档。
_id: ObjectId('4f442120eb03305789000000'),
host: "127.0.0.1",
logname: null,
user: 'frank',
time: ISODate("2000-10-10T20:55:36Z"),
path: "/apache_pb.gif",
request: "GET /apache_pb.gif HTTP/1.0",
status: 200,
response_size: 2326,
referrer: "[http://www.example.com/start.html](http://www.example.com/start.html)",
user_agent: "Mozilla/4.08 [en] (Win98; I ;Nav)"
同时,在这个过程中,如果您觉得有些字段对数据分析没有任何帮助,则可以直接过滤掉,以减少存储上的消耗。比如数据分析不会关心user、request、status信息,这几个字段没必要存储。ObjectId里本身包含了时间信息,没必要再单独存储一个time字段。(带上time也有好处,time更能代表请求产生的时间,而且查询语句写起来更方便,尽量选择存储空间占用小的数据类型)基于上述考虑,上述日志最终存储的内容可能类似如下所示:
_id: ObjectId('4f442120eb03305789000000'),
host: "127.0.0.1",
time: ISODate("2000-10-10T20:55:36Z"),
path: "/apache_pb.gif",
referer: "[http://www.example.com/start.html](http://www.example.com/start.html)",
user_agent: "Mozilla/4.08 [en] (Win98; I ;Nav)"
日志存储服务需要能同时支持大量的日志写入,用户可以定制writeConcern来控制日志写入能力,比如如下定制方式:
db.events.insert({
host: "127.0.0.1",
time: ISODate("2000-10-10T20:55:36Z"),
path: "/apache_pb.gif",
referer: "[http://www.example.com/start.html](http://www.example.com/start.html)",
user_agent: "Mozilla/4.08 [en] (Win98; I ;Nav)"
查询某台主机一段时间内的所有请求:q_events = db.events.find({
'host': '127.0.0.1',
'time': {'$gte': ISODate("2016-12-19T00:00:00.00Z"),'$lt': ISODate("2016-12-20T00:00:00.00Z" }
})
同样,用户还可以使用MongoDB的aggregation、mapreduce框架来做一些更复杂的查询分析,在使用时应该尽量建立合理的索引以提升查询效率。
当写日志的服务节点越来越多时,日志存储的服务需要保证可扩展的日志写入能力以及海量的日志存储能力,这时就需要使用MongoDB sharding来扩展,将日志数据分散存储到多个shard,关键的问题就是shard key的选择。
按时间戳字段分片:使用时间戳来进行分片(如ObjectId类型的_id,或者time字段),这种分片方式存在如下问题:
因为时间戳一直顺序增长的特性,新的写入都会分到同一个shard,并不能扩展日志写入能力。
很多日志查询是针对最新的数据,而最新的数据通常只分散在部分shard上,这样导致查询也只会落到部分shard。
按随机字段分片:按照_id字段来进行hash分片,能将数据以及写入都均匀都分散到各个shard,写入能力会随shard数量线性增长。但该方案的问题是,数据分散毫无规律。所有的范围查询(数据分析经常需要用到)都需要在所有的shard上进行查找然后合并查询结果,影响查询效率。
按均匀分布的key分片:假设上述场景里 path 字段的分布是比较均匀的,而且很多查询都是按path维度去划分的,那么可以考虑按照path字段对日志数据进行分片,带来的好处如下:
写请求会被均分到各个shard。
针对path的查询请求会集中落到某个(或多个)shard,查询效率高。
不足的地方是:
如果某个path访问特别多,会导致单个chunk特别大,只能存储到单个shard,容易出现访问热点。
如果path的取值很少,也会导致数据不能很好的分布到各个shard。
当然上述不足的地方也有办法改进,方法是给分片key里引入一个额外的因子,比如原来的shard key是 {path: 1},引入额外的因子后变成:{path: 1, ssk: 1}
其中ssk
可以是一个随机值,比如_id的hash值,或是时间戳,这样相同的path还是根据时间排序的。
这样做的效果是分片key的取值分布丰富,并且不会出现单个值特别多的情况。上述几种分片方式各有优劣,用户可以根据实际需求来选择方案。
应对数据增长
分片的方案能提供海量的数据存储支持,但随着数据越来越多,存储的成本会不断的上升。通常很多日志数据有个特性,日志数据的价值随时间递减。比如1年前、甚至3个月前的历史数据完全没有分析价值,这部分可以不用存储,以降低存储成本,而在MongoDB里有很多方法支持这一需求。
TTL索引:MongoDB的TTL索引可以支持文档在一定时间之后自动过期删除。例如上述日志time字段代表了请求产生的时间,针对该字段建立一个TTL索引,则文档会在30小时后自动被删除。如:db.events.createIndex( { time: 1 }, { expireAfterSeconds: 108000 } )
使用Capped集合:如果对日志保存的时间没有特别严格的要求,只是在总的存储空间上有限制,则可以考虑使用capped collection来存储日志数据。指定一个最大的存储空间或文档数量,当达到阈值时,MongoDB会自动删除capped collection里最老的文档。如:db.createCollection("event", {capped: true, size: 104857600000}
定期按集合或DB归档:比如每到月底就将events集合进行重命名,名字里带上当前的月份,然后创建新的events集合用于写入。比如2016年的日志最终会被存储在如下12个集合里:events-201601
events-201602
events-201603
events-201604
events-201612
当需要清理历史数据时,直接将对应的集合删除掉:
db["events-201601"].drop()
db["events-201602"].drop()
不足到时候,如果要查询多个月份的数据,查询的语句会稍微复杂些,需要从多个集合里查询结果来合并。