Elasticsearch提供了replica解决方案,它可以帮我们解决了如果有一个或多个node失败了,那么我们的数据还是可以保证完整的情况,并且搜索还可以继续进行。但是,有一种情况是我们的所有的node,或者有一部分node失败,可能会造成我们的数据的丢失。也就是说replca不能提供一种灾难性的保护机制。我们需要一种完整的备份机制。
Snapshot及Restore
在Elastic里,我们提供了一个叫做snapshot及restore API的接口。使您可以使用数据和状态快照备份您的Elasticsearch索引和集群。 快照很重要,因为快照会在出现问题时提供您数据的副本。 如果需要回滚到旧版本的数据,则可以从存储库中还原快照。
如上图所示,我们可以把当前index的状态及数据存入到一个repository里去。
Repository
为了能够做备份,我们首先必须创建一个repository,也就是一个仓库。你可以为一个cluster创建多个仓库。目前支持的仓库类型有:
# Elasticsearch支持仓库类型
Respository 配置类型
Shared file system "type": "fs"
Read-only URL "type": "url"
S3 "type": "s3"
HDFS "type": "hdfs"
Azure "type": "azure"
Google Cloud Storage "type": "gcs"
这里需要注意的是: S3, HDFS, Azure and GCS 需要相应的插件进行安装才可以。
在一个snapshot可以被使用之前,我们必须注册一个仓库(repository)。
使用_snapshot 终点
文件夹必须对所有的node可以访问
path.repo必须在所有的node上进行配置,针对一个fs的repository来说
PUT _snapshot/my_repo
"type": "fs",
"settings": {
"location": "/mnt/my_repo_folder"
这里/mnt/my_repo_folder必须加进所有node的elasticsearch.yml文件中。
fs resposity设置:
PUT _snapshot/my_repo
"type": "fs",
"settings": {
"location": "/mnt/my_repo_folder",
"compress": true,
"max_restore_bytes_per_sec": "40mb",
"max_snapshot_bytes_per_sec": "40mb"
这里,我们定义compress为true,表明我们希望压缩。通过max_restore_bytes_per_sec及max_snapshot_bytes_per_sec的定义,我们可以来限制数据的snapshot及恢复的数据速度。
S3 repository设置
为了能能使用S3仓库,我们必须使用如下的命令来进行安装插件:
./bin/elasticsearch-plugin install repository-s3
注意,上面的命令必须是在Elasticsearch的安装目录下进行执行。我们可以通过如下的命令来进行配置:
PUT _snapshot/my_s3_repo
"type": "s3",
"settings": {
"bucket": "my_s3_bucket_name"
这里的my_s3_bucket_name是我们在AWS上定义的S3 bucket。更多关于S3的配置可以参阅链接 Repository Settings(https://www.elastic.co/guide/en/elasticsearch/plugins/current/repository-s3-repository.html)。
Snapshot所有的索引
一旦我们的repository已经被配置好了,那么我们就可以利用_snapshot终点来进行snapshot。必须注意的是snapshot只拷贝在执行该命令时的所有的数据,而在之后的所有的数据将不被备份。snapshot是按照增量来进行备份的,也就是说它只拷贝从上次执行snapshot之后变化的部分。通常来说,每隔30分钟进行一次备份是足够的。
snapshot命令:
PUT _snapshot/my_repo/my_snapshot_1
这里必须注意的几点:
my_repo是指的我们在上面定义的repository的名字
my_snapshot_1指的是一个唯一的snapshot名字
没有特定的索引名字被指出,那么它指的是所有的open索引
如果我们想指定某个或某些特定的索引,那么我们可以使用如下的命令来执行备份(snapshot)
PUT _snapshot/my_repo/my_logs_snapshot_1
"indices": "logs-*",
"ignore_unavailable": true,
"include_global_state": true
这里它表述我们相对所有以logs-为开头的索引进行备份。
我们可以通过如下的命令来进行监测正在进行的snapshot的进度:
GET _snapshot/my_repo/my_snapshot_2/_status
管理snapshots
获取所有在repo中的snapshots:
GET _snapshot/my_repo/_all
获取某个特定snapshot的信息
GET _snapshot/my_repo/my_snapshot_1
删除一个snapshot
DELETE _snapshot/my_repo/my_snapshot_1
恢复一个snapshot
我们可以使用_restore终点来从一个snapshot恢复所有的索引:
POST _snapshot/my_repo/my_snapshot_2/_restore
我们也可以通过如下的方法来恢复某个或某些特定的索引:
POST _snapshot/my_repo/my_snapshot_2/_restore
"indices": "logs-*",
"ignore_unavailable": true,
"include_global_state": false
在很多的时候,我们想把snapshot中的索引恢复到一个不同名字的索引之中,从而不用覆盖现有的。我们可以通过rename_pattern及rename_replacement来进行配置:
POST _snapshot/my_repo/my_snapshot_2/_restore
"indices": "logs-*",
"ignore_unavailable": true,
"include_global_state": false,
"rename_pattern": "logs-(.+)",
"rename_replacement": "restored-logs-$1"
在上面,我们把所有的以logs-为开头的索引恢复到以restored-logs-的开头的索引之中来。
Restore到一个新的cluster
针对这个情况,我们可以恢复从另外一个cluster中备份的snapshot到当前的cluster中来。我们必须在新的cluster中注册这个repository才可以进行下面的操作。
从上面我们可以看出来,my_repo必须对两个cluster都是可见的才可以。
准备数据:
运行起来我们的Kibana:
我们分别点击上面的1和2处:
点击上面的“Add data”。这样我们就可以把我们的kibana_sample_data_logs索引加载到Elasticsearch中。
GET _cat/indices/kibana_sample_data_logs
注册repository
首先我们在我们的电脑上创建一个如下的目录:
/shared_folder/my_repo
我们在termimal中打入如下的命令:
mkdir -p shared_folder/my_repo/
$ pwd
/Users/liuxg/shared_folder
bogon:shared_folder liuxg$ ls -al
drwxr-xr-x 2 liuxg staff 64 Nov 13 13:23 my_repo
将以下path.repo属性添加到我们运行的所有node的elasticsearch.yml文件中:
path.repo: /Users/liuxg/shared_folder/my_repo
注意,针对你的情况,你需要改动这里的path路径。
然后启动我们的Elasticsearch及Kibana。紧接着,我们在Kibana console中打入如下的命令:
PUT _snapshot/my_local_repo
"type": "fs",
"settings": {
"location": "/Users/liuxg/shared_folder/my_repo"
注意这里的location是根据我自己的电脑的路径来设置的。你需要根据自己实际的路径进行修改。在这里my_local_repo是我们的repository名称。
接下来,我们打入如下的命令来对我们的kibana_sample_data_logs索引进行snapshot:
PUT _snapshot/my_local_repo/snapshot_1
"indices": "kibana_sample_data_logs",
"ignore_unavailable": true,
"include_global_state": true
我们可以通过如下的命令来查看snapshot:
GET _snapshot/my_local_repo/_all
我们可以在右边看到snapshot_1出现在列表之中,说明我们已经成功地创建了这个snapshot。
我们接下来可以通过如下的命令来删除kibana_sample_data_logs索引:
DELETE kibana_sample_data_logs
这样我们彻底地删除了这个索引。那么我们该如何把之前备份的数据恢复回来呢?
在Kibana中打入如下的命令:
POST _snapshot/my_local_repo/snapshot_1/_restore
"indices": "kibana_sample_data_logs",
"ignore_unavailable": true,
"include_global_state": false
在执行完上面的命令后,我们可以通过如下的命令来查看恢复后的kibana_sample_data_logs索引:
GET kibana_sample_data_logs/_count
显然我们已经成功地恢复了我们之前备份的数据。
这个时候,如果我们去到我们的snapshot文件目录,我们可以看到:
$ pwd
/Users/liuxg/shared_folder/my_repo
bogon:my_repo liuxg$ ls
index-0 meta-TzygGpJ1SOK5yJdsmc1lng.dat
index.latest snap-TzygGpJ1SOK5yJdsmc1lng.dat
indices
显然在文件目录中,已经有新生产的文件了。