[MySQL--SQL优化]

这篇具有很好参考价值的文章主要介绍了[MySQL--SQL优化]。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

[MySQL--SQL优化]

1、insert优化(插入数据优化)

  • 建议使用批量插入

    # 批量插入避免频繁连接断开数据库(一次连接插入多条数据)
    	insert into 表名 values(数据1),(数据2),(数据3)......
    
  • 建议手动提交事务插入(避免频繁开启关闭事务)

    # 即开启一次事务 执行多条sql
    
    start transaction;  # 开启事务 
    # 执行多条sql
    insert into 表名 values(数据1),(数据2),(数据3);
    insert into 表名 values(数据4),(数据5),(数据6);
    insert into 表名 values(数据7),(数据8),(数据9);
    commit;  # 提交事务
    
    
  • 大批量插入数据(load指令)

    如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令进行插入。

    操作如下:

    # 客户端连接服务器时,加上参数 --local-infile
    	mysql --local-infile -u 用户名 -p 密码
    	
    # 设置全局参数local-infile为1,开启从本地加载文件导入数据的开关
    	1、查看是否开启命令 
    		select @@local_infile;
    	2、开启命令
    		set global local_infile = 1;
    		
    # 执行load指令将准备好的数据,加载到表格
    	load data local infile '/root/sql.log' into table 'tb_user' fields terminated by ',' lines terminated by '\n';
    	load data local infile '文件路径' into table '表名' fields terminated by '什么作为分割符' lines terminated by '每一行的结束符';
    	
    

    注意:主键顺序插入的性能高于乱序插入!

2、主键优化

# 1)满足业务需求的情况下、尽量降低主键的长度
	原因是我们二级索引的叶子节点存放的就是主键,如果主键过长且叶子节点过多会占用大量的磁盘空间!
	
# 2)插入数据时尽量选择顺序插入,选择使用auto_increment主键自增
	如果不顺序插入可能会存在页分裂现象,如果按照顺序插入则可避免
	
# 3)尽量不要使用uuid作为主键或者是其他自然主键,如身份证号!
	原因 uuid或者身份证号则无序且过长,影响效率!
	
# 4)业务操作时尽量避免对主键的修改。
	

3、order by优化

①. Using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫file sort排序。

②. Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为using index,不需要额外排序,操作效率高。

注意:尽量优化为Using index

# 1、根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则
# 2、尽量使用覆盖索引
# 3、多字段排序,一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)
# 4、如果不可避免的出现filesort,大数据量排序时,可以适当增大排序缓冲区大小sort_buffer_size(默认256k)。
	查看默认缓冲区大小命令
	show variables like 'sort_buffer_size';

4、group by优化

# 在分组操作时,可以通过索引来提高效率。
# 分组操作时,索引的使用也是满足最左前缀法则的。

5、limit优化

  • 针对于大数据量的情况下 分页查询时越往后就会变得越耗时。所以我们需要通过优化limit来提升效率

    注意:官方建议通过覆盖索引加子查询来优化

    例如:
    
    未优化前:
    	select * from 表名 limit 9000000,10:
    	耗时 19s
    	
    	
    优化后:
    	# 可以直接使用覆盖聚集索引,不需要回表查询 提升效率
    	select id from 表名 order by id limit 9000000,10;
    	# 我们可以将查询出来的id看作为一张新表
    	# 之后我们可以使用子查询来获取具体数据
    	select A.* from 表名1 as A,(select id from 表名 order by id limit 9000000,10:) as B where A.id == B.id;
    	# 括号内可以看作为一张新表 然后进行连表查询即可 大大提升效率
    	
    	耗时 12s
    	
    

6、count优化

  • MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行count(*)的时候就会直接返回这个数,效率很高(仅仅在没有where条件有效)

  • innoDB 引擎就麻烦了,它执行count(*)的时候,需要把数据一行一行地从引擎里面读出来。然后累计计数

优化思路:自己计数。

比如:我们可以自己维护一张表来专门存储我们所需要记录的数据,利用redis内存数据库 加一条数据 就+1等

count的几种用法

1.count(主键)

InnoDB引擎会遍历整张表,把每一行的主键id值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为nut)

2.count(字段)

没有 not nul约束:   Innodb引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为nu不为nu,计数累加。
有 not nu约束:   Innodb引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。

3.count(1)

Innodb引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。

4.count(*)

Innodb引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加。

按照效率排序的话, count字段)< count(主键id< count(1) c count(·),所以尽量使用 count(*)

7、update优化

update student set no='2000100100' where id=1;

update student set no='2000100105' where name='韦一笑';

# Innode的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁。
# 升级为表锁就会降低性能!

文章来源地址https://www.toymoban.com/news/detail-467163.html

到了这里,关于[MySQL--SQL优化]的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • SQL INSERT INTO 语句详解:插入新记录、多行插入和自增字段

    SQL INSERT INTO 语句用于在表中插入新记录。 INSERT INTO 语法 可以以两种方式编写INSERT INTO语句: 指定要插入的列名和值: 如果要为表的所有列添加值,则无需在SQL查询中指定列名。但是,请确保值的顺序与表中的列顺序相同。在这种情况下,INSERT INTO 语法如下: 演示数据库 以

    2024年02月05日
    浏览(59)
  • mysql批量插入insert语句

    在MySQL中批量插入数据有几种方法,下面我将介绍其中两种常用的方法: 这是一种简单的方式,可以一次性插入多个值。以下是一个示例: 在上面的示例中,你需要替换your_table_name为你的表名,列名和相应的值。你可以一次性插入多行数据。 另一种批量插入数据的方法是使

    2024年02月06日
    浏览(41)
  • SQL优化--插入数据

    如果我们需要一次性往数据库表中插入多条记录,可以从以下三个方面进行优化。 即便是批量插入也不建议一次性插入太多,500-1000条较为合适。如果需要插入更多,建议分割成多次进行插入 为什么批量插入不建议太多 对于批量插入数据,确实不建议一次性插入太多记录,

    2024年02月09日
    浏览(29)
  • 【mysql 插入数据问题】MySQL插入数据阻塞问题及优化方案

    摘要:本文主要介绍了MySQL数据库在插入数据时出现阻塞的常见原因,以及如何查看和优化这些问题。通过分析慢查询日志、优化索引、优化数据类型、批量插入等手段,可以有效地提高MySQL数据库的插入性能。 一、引言 MySQL作为一款广泛应用于各类项目的开源数据库,其性

    2024年02月02日
    浏览(50)
  • SQL server插入报错:当 IDENTITY_INSERT 设置为 OFF 时,不能为表 ‘XXX‘ 中的标识列插入显式值

    问题 :SQL server插入报错: 当 IDENTITY_INSERT 设置为 OFF 时,不能为表 \\\'XXX\\\' 中的标识列插入显式值 ,如下图所示: 分析 :该问题是给SQL server数据库中的某个表插入数据引起的报错,一般出现在该表为自增的情况下。 解决方法 : (1)执行SQL server语句: SET IDENTITY_INSERT 当前数

    2024年02月07日
    浏览(48)
  • mysql 大量数据插入优化

    对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长,当有大量数据需要插入数据库时(比如10万,50万,100万条数据),如果继续使用单条语句进行插入的话,会很影响数据库效率,因此,优化数据库插入性能是很有意义的,那么,怎么

    2023年04月08日
    浏览(40)
  • MySQL---使用索引优化、大批量插入数据优化

    1. 使用索引优化 索引是数据库优化最常用也是最重要的手段之一 , 通过索引通常可以帮助用户解决大多数的 MySQL 的性能优化问题: 1.1 避免索引失效应用-全值匹配 该情况下,索引生效,执行效率高。 1.2 避免索引失效应用-最左前缀法则 1.3 避免索引失效应用-其他匹配原则

    2024年02月07日
    浏览(51)
  • Hive(19):DML之Insert插入数据

    1 背景:RDBMS中insert使用(insert+values) 在MySQL这样的RDBMS中,通常是insert+values的方式来向表插入数据,并且速度很快。这也是RDBMS中插入数据的核心方式。 假如说对Hive的定位不清,把Hive当成RDBMS来使用,也使用insert+values的方式插入数据,会如何呢? 你会发现执行过程非常非

    2024年02月13日
    浏览(66)
  • Hive insert插入数据与with子查询

    insert into 与 insert overwrite 都可以向hive表中插入数据,但是insert into直接追加到表中数据的尾部,而insert overwrite会重写数据,既先进行删除,再写入 注意:如果存在分区的情况,insert overwrite只重写当前分区数据,不会全部重写 当在hive中同时使用insert into(overwrite) table xx 与wi

    2024年02月03日
    浏览(42)
  • Hive Sql优化之一次from查询多次insert into操作

    例:统计字段空值率 优化点:一次map多个reduce,有效节省了map操作 流程如下: 1.创建表; 2.插入数据; 3.参照下面语句;

    2024年02月17日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包