使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1)

这篇具有很好参考价值的文章主要介绍了使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7

深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年最新大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

如果你需要这些资料,可以添加V获取:vip204888 (备注大数据)
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

正文

  1. ES索引结构

使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

  1. MySQL表结构
    使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

mysql原始数据
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

恭喜你🎉🎉🎉,到这你已经成功2/4啦,接下来我们要去配置Logstash啦,加油⛽️

三. 配置Logstash

  1. 进入到 /logstash-7.10.2/bin目录下,创建 testlogstash.conf 文件,这是具体的配置
input {
	stdin {}
	jdbc {
	    #===================这是你需要修改的第1个地方===============#
	    
		#数据库连接地址
		jdbc\_connection\_string => "jdbc:mysql://localhost:3306/user\_center?characterEncoding=UTF-8&autoReconnect=true"
		jdbc\_user => "root"
		jdbc\_password => "root"
		# MySQL依赖包路径;
		jdbc\_driver\_library => "/Users/chencunyou/Desktop/java/mysql/mysql-connector-java-8.0.27.jar"
		#查询数据库语句(查询出的字段名要和es索引的字段名相同)
		statement => "SELECT id,nick_name AS nickName,sex,birth_date AS birthDate,create_time AS     createTime,update_time AS updateTime
FROM sys_user"
		
		# 需要记录的字段,用于增量同步,需是数据库字段
		tracking\_column => "updateTime"
		# record_last_run上次数据存放位置;
		last\_run\_metadata\_path => "/Users/chencunyou/Desktop/java/logstash-8.9.2/data/last\_time.txt"
		
		#====================第1个地方修改结束=====================#
		 
		type => "jdbc"
		# the name of the driver class for mysql
		jdbc\_driver\_class => "com.mysql.cj.jdbc.Driver"
		# 数据库重连尝试次数
		connection\_retry\_attempts => "3"
		 # 判断数据库连接是否可用,默认false不开启
		jdbc\_validate\_connection => "true"
		 # 数据库连接可用校验超时时间,默认3600S
		jdbc\_validation\_timeout => "3600"
		 # 开启分页查询(默认false不开启);
		jdbc\_paging\_enabled => "true"
		 # 单次分页查询条数(默认100000,若字段较多且更新频率较高,建议调低此值);
		jdbc\_page\_size => "500"
		 # statement为查询数据sql,如果sql较复杂,建议配通过statement_filepath配置sql文件的存放路径;
		 # sql_last_value为内置的变量,存放上次查询结果中最后一条数据tracking_column的值,此处即为ModifyTime;
		 # statement\_filepath => "mysql/jdbc.sql"
		 # 是否将字段名转换为小写,默认true(如果有数据序列化、反序列化需求,建议改为false);
		lowercase\_column\_names => false
		 # Value can be any of: fatal,error,warn,info,debug,默认info;
		sql\_log\_level => warn
		 #
		 # 是否记录上次执行结果,true表示会将上次执行结果的tracking_column字段的值保存到last_run_metadata_path指定的文件中;
		record\_last\_run => true
		 # 需要记录查询结果某字段的值时,此字段为true,否则默认tracking_column为timestamp的值;
		use\_column\_value => true
		 # Value can be any of: numeric,timestamp,Default value is "numeric"
		tracking\_column\_type => timestamp
		 # 是否清除last_run_metadata_path的记录,需要增量同步时此字段必须为false;
		clean\_run => false
		 #
		 # 同步频率(分 时 天 月 年),默认每分钟同步一次;
		schedule => "\* \* \* \* \*"
	}
}
 
output {
	elasticsearch {
	     #===================这是你需要修改的第2个地方===============#
	     
		 # host => "localhost"
		 # port => "9200"
		 # 配置ES集群地址
		 hosts => ["127.0.0.1:9200"]
		 user => "admin"
         password => "admin"
         # 启用SSL/TLS加密(前提是开启了HTTPS访问)
         ssl => true
         # 禁用证书验证(前提是开启了HTTPS访问)
         ssl\_certificate\_verification => false   
         # 证书地址(如果启用SSL/TLS加密的话,即使禁用证书验证,也需要配置否则会报错)             
         #cacert => "/Users/chencunyou/Desktop/java/logstash-7.10.2/CloudSearchService.cer"
		 # 你的索引名字,必须小写
		 index => "sys\_user\_dev"
		 # 数据唯一索引(建议使用数据库表唯一索引id)
		 document\_id => "%{id}"
		
         #====================第2个地方修改结束=====================#
	}
	stdout {
		codec => json_lines
	}
}

  1. SSL证书下载

如果你是买的云服务器厂商的ES服务,去实例基本信息下载即可。我们公司用的华为云,我以华为云为例,进到"云搜索服务CSS",找到ES实例,然后下载证书
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

恭喜你🎉🎉🎉,到这你已经成功3/4啦,接下来进入到最重要,同时99%会报错的最后一步,加油⛽️

四. 同步数据

  1. 进入到 bin 目录
  2. 执行脚本同步数据
./logstash -f testlogstash.conf

  1. 执行结果(⚠️恭喜你,同步失败,当然幸运的你也可能不会碰到此问题)
Could not index event to Elasticsearch. {:status=>400, :action=>["index", {:\_id=>"369539918421758535", :\_index=>"sys\_user\_dev", :routing=>nil, :\_type=>"\_doc"}, #<LogStash::Event:0x41528007>], :response=>{"index"=>{"\_index"=>"sys\_user\_dev", "\_type"=>"\_doc", "\_id"=>"369539918421758535", "status"=>400, "error"=>{"type"=>"mapper\_parsing\_exception", "reason"=>"failed to parse field [sex] of type [integer] in document with id '369539918421758535'. Preview of field's value: 'false'", "caused\_by"=>{"type"=>"json\_parse\_exception", "reason"=>"Current token (VALUE\_FALSE) not numeric, can not use numeric value accessors\n at [Source: (byte[])\"{\"type\":\"jdbc\",\"createTime\":\"2023-09-15 20:22:47\",\"id\":369539918421758535,\"nickName\":\"易烊千玺\",\"@timestamp\":\"2023-09-15T14:23:01.583Z\",\"updateTime\":\"2023-09-15 20:23:03\",\"@version\":\"1\",\"sex\":false,\"birthDate\":\"2000-09-15\"}\"; line: 1, column: 202]"}}}}}

使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

⚠️原因:数据库表中的sex字段,字段类型为tinyint,Logstash会转成boolean,但是ES中设置的也是int类型,所以你懂的
解决方案: 修改 testlogstash.conf 文件中的mysql连接地址,指定 tinyInt1isBit=false

jdbc\_connection\_string => "jdbc:mysql://localhost:3306/user\_center?characterEncoding=UTF-8&autoReconnect=true&tinyInt1isBit=false"

  1. 再次执行命令(发现还是报错🤬,当然幸运的你也可能不会碰到此问题)
Could not index event to Elasticsearch. {:status=>400, :action=>["index", {:\_id=>"369539918421758535", :\_index=>"sys\_user\_dev", :routing=>nil, :\_type=>"\_doc"}, #<LogStash::Event:0x4f58d64c>], :response=>{"index"=>{"\_index"=>"sys\_user\_dev", "\_type"=>"\_doc", "\_id"=>"369539918421758535", "status"=>400, "error"=>{"type"=>"mapper\_parsing\_exception", "reason"=>"failed to parse field [birthDate] of type [date] in document with id '369539918421758535'. Preview of field's value: '2000-09-14T16:00:00.000Z'", "caused\_by"=>{"type"=>"illegal\_argument\_exception", "reason"=>"failed to parse date field [2000-09-14T16:00:00.000Z] with format [yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch\_millis]", "caused\_by"=>{"type"=>"date\_time\_parse\_exception", "reason"=>"Failed to parse with all enclosed parsers"}}}}}}

使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注大数据)
使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1),2024年程序员学习,搜索引擎,mysql,elasticsearch

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!文章来源地址https://www.toymoban.com/news/detail-860504.html

,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注大数据)
[外链图片转存中…(img-QLCFUi1e-1713173968809)]

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

到了这里,关于使用Logstash同步mysql数据到Elasticsearch(亲自踩坑)_将mysql中的数据导入es搜索引擎利用logstash(1)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Lostash同步Mysql数据到ElasticSearch(二)logstash脚本配置和常见坑点

    新建脚本文件夹 cd /usr/local/logstash mkdir sql cd sql vim 表名称.conf #如: znyw_data_gkb_logstash.conf 建立文件夹,保存资源文件更新Id mkdir -p /data/logstash/data/last_run_metadata 脚本JDBC插件参数说明: 第一步要做的事情,配置logstasht同步脚本文件,内容如下: 第二部要做的事情,根据_mapping.

    2024年02月07日
    浏览(30)
  • 使用Logstash和JDBC将MySQL的数据导入到Elasticsearch(ES)的过程

    使用Logstash和JDBC将MySQL的数据导入到Elasticsearch(ES)的过程包含多个步骤。请注意,首先你需要准备好的JDBC驱动,Logstash实例,Elasticsearch实例,以及你希望导入的MySQL数据。 安装Logstash JDBC Input Plugin :Logstash包含大量插件,其中一个就是JDBC Input Plugin,可以用于从JDBC兼容的数据库

    2024年02月15日
    浏览(30)
  • Logstash同步Mysql数据至ES

    官方文档 注意版本要和自己的es版本一致 下载地址:logstash 上传至服务器并进行解压。 1、通过官网下载mysql连接jar包 下载地址:mysql 连接jar包 根据自己mysql版本和系统进行选择 ​  ​   ​   ​   ​ 2、在IDEA中复制msyql连接jar包 ​   ​ 将jar包移动至/logstash/logstash-core/lib

    2024年02月10日
    浏览(29)
  • mysql同步数据到es之logstash

    1.使用 logstash 如果是历史数据同步我们可以用logstash,最快同步频率每分钟一次,如果对时效性要求高,慎用 2.使用 canal 实时同步,本文章未演示 logstash 特性: 无需开发,仅需安装配置logstash即可; 凡是SQL可以实现的logstash均可以实现(本就是通过sql查询数据) 支持每次全量同步或

    2023年04月08日
    浏览(32)
  • Logstash从mysql同步数据到es

    Logstash 是免费且开放的服务器端数据处理管道,能够从多个来源采集数据,转换数据,然后将数据发送到您最喜欢的“存储库”中。 Logstash 是一个功能强大的工具,可与各种部署集成。 它提供了大量插件,可帮助你解析,丰富,转换和缓冲来自各种来源的数据。 如果你的数

    2024年02月08日
    浏览(85)
  • Docker部署Logstash同步Mysql数据到ES

    页面访问 ip:9200端口,出现下面页面部署成功 成功日志

    2024年04月13日
    浏览(31)
  • 通过logstash实现mysql与es的双向数据同步

    参考题目 一种基于MySQL和Elasticsearch的数据同步方法及系统 基于MySQL和Elasticsearch的数据同步方法 一种基于MySQL和Elasticsearch的数据同步系统 基于MySQL和Elasticsearch的数据同步技术 目录 1【理论调研】 方案1:使用Logstash实现数据同步 方案2:使用Canal实现数据同步 方案3:使用Debe

    2024年02月15日
    浏览(23)
  • logstash同步mysql数据到es(三、es模板问题)

     相关问题汇总: logstash同步mysql数据到es(一、es模板问题,请求返回400) logstash同步mysql数据到es(二、jdbc_driver_library问题)_(please check user and group permissions for the p-CSDN博客 logstash同步mysql数据到es(三、es模板问题)-CSDN博客 使用docker实现logstash同步mysql到es-CSDN博客 [INFO ] 2023-12-11 09

    2024年01月17日
    浏览(34)
  • Enterprise:使用 MySQL connector 同步 MySQL 数据到 Elasticsearch

    Elastic MySQL 连接器是 MySQL 数据源的连接器。它可以帮我们把 MySQL 里的数据同步到 Elasticsearch 中去。在今天的文章里,我来详细地描述如何一步一步地实现。 在下面的展示中,我将使用 Elastic Stack 8.8.2 来进行展示。 无缝集成:将 Elasticsearch 连接到 MongoDB Enterprise:使用 MySQL c

    2024年02月16日
    浏览(32)
  • 使用logstash把mysql同步到es,Kibana可视化查看

    Logstash下载地址:https://www.elastic.co/cn/downloads/logstash

    2024年02月02日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包