ES导入导出索引

这篇具有很好参考价值的文章主要介绍了ES导入导出索引。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、方案

1.通过logstash 实现

详见 二、

2.Elasticsearch引擎的索引数据的完全导出/导入(包括mapping、setting、alias、routing)

请参考,这个不知道怎么在导入就没用
https://m.tongfu.net/home/35/blog/513365.html

3.Elasticsearchdump

安装太麻烦了,随便找了一个自己看吧
https://www.cnblogs.com/mojita/p/12011800.html

二、开始导出、导入

参考:使用Logstash导出ES中的数据(作者:zhouxy)
https://blog.csdn.net/sinat_23030553/article/details/112507627

2.1 下载对应版本的 logstash

2.2 实施

解压lostash
tar -zxvf logstash*

测试

./bin/logstash -e 'input { stdin { } } output { stdout {} }'

输入:hello,the world
会打印出包含他的对象

导入、导出执行下面的2个配置文件
./bin/logstash -f conf/配置文件名
运行完后直接 ctrl+c 结束

./bin/logstash -f config/daochu.conf
# ------------------  配置导出
input {
  elasticsearch {
    hosts => ["localhost:9200"]    #es地址
    #user => "XXX"                                                           #es用户名
    #password  => "XXX"                                                     #es密码
	 #要导出的索引
	 index => "log-2024-04"                                                      
     # 如果你想要更具体的查询条件,可以在这里定义(导出是 查询语句去除size、from字段)
	 query => '{"query":{"bool":{"must":[{"terms":{"From_id":[2939803262977,5016520613890,5287791419394,3005670645781],"boost":1.0}},{"range":{"Esdate":{"from":"2024-04-08T00:00:00.000Z","to":"2024-04-09T23:59:59.000Z","include_lower":true,"include_upper":true,"boost":1.0}}}],"adjust_pure_negative":true,"boost":1.0}}}' 
	
 }
}

output {
 file {
  path => "/home/log-2024-04.json"                                 #导出文件路径
 }
}

./bin/logstash -f config/daoru.conf
----------------------------
#------------------ 配置导入
input {  
  file {  
    path => "/home/log-2024-04.json"  
    start_position => "beginning"  
    sincedb_path => "/dev/null" # 如果你不想Logstash记住文件的位置,可以使用这个设置  
    codec => json # 因为文件是JSON格式的,所以指定codec为json  
  }  
}  
  
filter {  
  # 这里可以添加任何你需要的过滤操作  
}  

output {  
  elasticsearch {  
    hosts => ["http://localhost:9200"]  
    index => "log-2024-01"  
    #user => "XXX"                                                           #es用户名
    #password  => "XXX"                                                     #es密码
    document_id => "%{Uuid}" # 使用Uuid字段的值作为Elasticsearch文档的_id  
  }  
}

三、其他人的失败,了解

这有按小时分文件

https://blog.csdn.net/qq_25868251/article/details/108599189

1.logstash 是我这次用的比较顺利的的软件工具了,虽然开始也有一点小插曲,导致导出过程中退出了(因服务器的自动备份把仅剩下的几G空间又占满了,导致服务断开)

2.我下载的是 logstash-5.6.1 版本,解压即可,但是需要系统有 jdk8 环境,为了不指定绝对路径,我直接在 bin 目录下创建了 conf 配置文件:test.conf 内容如下:

input{
elasticsearch {
hosts => [“ip:9200”] # 你的服务器地址
index => “test” # 你的索引
query => ‘{ “query”: {“match_all” : {} } }’
#type => “_doc”
size => 100
scroll => “5m”
docinfo => true
#user => “username”
#password => “xxxxx”
}
}
output{
file {
path => “es_test.json” # 输出的文件
}
}

3.但是这样的输出文件只有一个,太大了,到时候如果完全导出,这个文件将近300多G。但是我发现 logstash 并不能像 elasticdump 那样可以指定分割文件的大小,所以,只能按输出时间来分割文件,让文件不至于过大,修改 output 部分如下:这样就是每隔一个小时会生成一个导出文件。

output{
file {
path => “%{+YYYY.MM.dd.HH}es_test.json”
}
}
4.这里导出的文件会发现时间用的是 timestamp 是 UTC 时间,和我们的时间还差 8 小时,加上 filter 配置覆盖该时间即可

input{
elasticsearch {
hosts => [“ip:9200”]
index => “test”
query => ‘{ “query”: {“match_all” : {} } }’
#type => “_doc”
size => 100
scroll => “5m”
docinfo => true
#user => “username”
#password => “xxxxx”
}
}
filter {
ruby {
code => “event.set(‘timestamp’, event.get(‘@timestamp’).time.localtime + 86060)”
}
ruby {
code => “event.set(‘@timestamp’,event.get(‘timestamp’))”
}
mutate {
remove_field => [“timestamp”]
}
}

output{
file {
path => “%{+YYYY.MM.dd.HH}es_test.json”
}
}

5.可是我万万没想到的是,导了很久之后,还是断掉了,并没有报错,只是命令行最后提示了 stoppping 之后就停掉了

[WARN ][logstash.agent ] stopping pipeline {:id=>“main”}文章来源地址https://www.toymoban.com/news/detail-855471.html

到了这里,关于ES导入导出索引的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ElasticSearch基础1——索引和文档。Kibana,RestClient操作索引和文档+黑马旅游ES库导入

    导航: 【黑马Java笔记+踩坑汇总】JavaSE+JavaWeb+SSM+SpringBoot+瑞吉外卖+SpringCloud/SpringCloudAlibaba+黑马旅游+谷粒商城 黑马旅游源码:  https://wwmg.lanzouk.com/ikjTE135ybje 目录 1.初识弹性搜索elasticsearch 1.1.了解ES 1.1.1.elasticsearch的作用 1.1.2.ELK弹性栈 1.1.3.elasticsearch和lucene 1.1.4.搜索引擎技术

    2024年02月01日
    浏览(55)
  • es数据导入导出

    使用elasticdump导入导出数据 一、安装elasticdump 终端中输入 1 npm install elasticdump -g -g表示全局可用,直接在终端输入 elasticdump --version,出现版本信息即表示安装成功,如下 1 2 C:UsersT470selasticdump --version 6.3.3 二、常用的导入导出方法 1、将索引中的数据导出到本地 1 elasticdump --

    2024年02月02日
    浏览(42)
  • ES 导入导出 数据

    安装elasticdump 导出 注意 要 查询条件 要转义 https://www.sojson.com/

    2024年02月04日
    浏览(42)
  • kibana es创建模板,索引,导入数据,简单聚合查询

    1.创建模板 2.获取模板

    2024年02月13日
    浏览(53)
  • 使用elasticdump实现es数据导入导出示例(持续更新中)

    Elasticdump是一个命令行工具,可用于将数据从Elasticsearch导出到JSON文件,以及将JSON文件导入到Elasticsearch中。以下是一个简单的示例,演示如何使用Elasticdump实现数据导入导出: 您可以使用npm命令在命令行中安装Elasticdump。(npm请自行安装。)例如,使用以下命令安装最新版本

    2023年04月11日
    浏览(42)
  • elasticSearch大量数据查询导出报错解决es

    elasticsearch的client包下的HeapBufferedAsyncResponseConsumer类中传入了bufferLimit,该值 org.apache.http.nio.protocol.HttpAsyncResponseConsumer 的默认实现。在堆内存中缓冲整个响应内容,这意味着缓冲区的大小等于响应的内容长度。根据可配置的参数限制可以读取的响应的大小。如果实体长于配置

    2023年04月16日
    浏览(45)
  • Elasticsearch Dump的详细安装和迁移es索引和数据的使用教程

    如果希望将数据导出到本地文件而不是通过编程方式处理,可以考虑使用Elasticsearch的导出工具,如 Elasticsearch Dump (Elasticdump)或 Elasticsearch Exporter 。这些工具可以将Elasticsearch索引中的数据导出为可用于后续处理的文件格式,如JSON或CSV,本文主要介绍使用Elasticsearch Dump进行索

    2024年02月14日
    浏览(52)
  • elasticdump:es批量索引迁移心得

    目录 1.方法介绍 1.1一行代码看懂用法 1.2导出源数据的 settings、mapping 、data 1.3将导出的数据文件导入至目标索引 1.4从数据源直接导入到目标集群 1.2.1:导出源数据索引的 settings文件 2:导出源数据索引的 mapping文件 3:导出源数据索引的 data文件 1:导入 settings 至目标索引 2:

    2024年02月08日
    浏览(36)
  • ES6模块化(默认导入导出、按需导入导出、直接导入)

    一、介绍ES6模块化     ES6 模块化规范是浏览器端与服务器端通用的模块化规范,ES6模块化的出现前端开发者不再需要额外的学习其他的模块化规范。  二、ES6 模块化规范中定义: 1.每个 js 文件都是一个独立的模块 2.导入其它模块成员使用 import 3.向外共享模块成员使

    2024年02月09日
    浏览(53)
  • 使用Logstash和JDBC将MySQL的数据导入到Elasticsearch(ES)的过程

    使用Logstash和JDBC将MySQL的数据导入到Elasticsearch(ES)的过程包含多个步骤。请注意,首先你需要准备好的JDBC驱动,Logstash实例,Elasticsearch实例,以及你希望导入的MySQL数据。 安装Logstash JDBC Input Plugin :Logstash包含大量插件,其中一个就是JDBC Input Plugin,可以用于从JDBC兼容的数据库

    2024年02月15日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包