MySQL查询之聚合函数查询

这篇具有很好参考价值的文章主要介绍了MySQL查询之聚合函数查询。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0. 数据源

student.sql文件。

/*
 Navicat Premium Data Transfer

 Source Server         : localhost_3306
 Source Server Type    : MySQL
 Source Server Version : 80016
 Source Host           : localhost:3306
 Source Schema         : testdb

 Target Server Type    : MySQL
 Target Server Version : 80016
 File Encoding         : 65001

 Date: 02/05/2023 20:52:22
*/

SET NAMES utf8mb4;
SET FOREIGN_KEY_CHECKS = 0;

-- ----------------------------
-- Table structure for student
-- ----------------------------
DROP TABLE IF EXISTS `student`;
CREATE TABLE `student`  (
  `num` int(11) NOT NULL COMMENT '学号',
  `name` varchar(10) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT 'zhang' COMMENT '姓名',
  `score` float NULL DEFAULT NULL,
  PRIMARY KEY (`num`) USING BTREE
) ENGINE = MyISAM AUTO_INCREMENT = 109 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_0900_ai_ci ROW_FORMAT = Dynamic;

-- ----------------------------
-- Records of student
-- ----------------------------
INSERT INTO `student` VALUES (101, 'zhang', 98);
INSERT INTO `student` VALUES (102, 'han', 69);
INSERT INTO `student` VALUES (103, 'hui', 72);
INSERT INTO `student` VALUES (104, 'fang', 100);
INSERT INTO `student` VALUES (105, 'li', 88);
INSERT INTO `student` VALUES (106, 'cheng', NULL);

SET FOREIGN_KEY_CHECKS = 1;
mysql> select * from student;
+-----+-------+-------+
| num | name  | score |
+-----+-------+-------+
| 101 | zhang |    98 |
| 102 | han   |    69 |
| 103 | hui   |    72 |
| 104 | fang  |   100 |
| 105 | li    |    88 |
| 106 | cheng |  NULL |
+-----+-------+-------+
6 rows in set (0.00 sec)

1. 作用

MySQL提供一些查询功能,可以对获取的数据进行分析和报告。这些函数的功能有:计算数据表中记录行数的总数、计算某个字段列下的数据的总和,以及计算表中某个字段下的最大值、最小值或者平均值。
或者可以这么理解:它主要是将一列数据作为一个整体,然后进行纵向计算

函数 作用
AVG() 返回某列的平均值
COUNT() 返回某列的行数
MAX() 返回某列的最大值
MIN() 返回某列的最小值
SUM() 返回某列的和

1.1 COUNT()

CONUT()函数统计数据表中包含的记录行的总数,或者根据查询结果返回列中包含的数据行数。

mysql> select * from student;
+-----+-------+-------+
| num | name  | score |
+-----+-------+-------+
| 101 | zhang |    98 |
| 102 | han   |    69 |
| 103 | hui   |    72 |
| 104 | fang  |   100 |
| 105 | li    |    88 |
| 106 | cheng |  NULL |
+-----+-------+-------+
6 rows in set (0.00 sec)

mysql> select COUNT(*) from student;
+----------+
| COUNT(*) |
+----------+
|        6 |
+----------+
1 row in set (0.00 sec)

mysql> select COUNT(name) from student;
+-------------+
| COUNT(name) |
+-------------+
|           6 |
+-------------+
1 row in set (0.00 sec)

mysql> select COUNT(score) from student;
+--------------+
| COUNT(score) |
+--------------+
|            5 |
+--------------+
1 row in set (0.00 sec)

根据以上测试结果可以看出:COUNT(*)是计算表中的所有的行数,不管某列有数值或者为空值。
COUNT(字段名)则是计算指定列下的总的行数,计算时将会忽略空值的行


1.2 SUM()

返回指定列的值的总和。
同样,SUM()函数在计算时,忽略列值为NULL的行。

mysql> select * from student;
+-----+-------+-------+
| num | name  | score |
+-----+-------+-------+
| 101 | zhang |    98 |
| 102 | han   |    69 |
| 103 | hui   |    72 |
| 104 | fang  |   100 |
| 105 | li    |    88 |
| 106 | cheng |  NULL |
+-----+-------+-------+
6 rows in set (0.00 sec)

mysql> select SUM(score) AS total from student;
+-------+
| total |
+-------+
|   427 |
+-------+
1 row in set (0.37 sec)

# demo
# 统计处num>=103 && num<=106的所有学生的成绩之和;
# 分析, 首先获取满足条件的所有学生集合:select * from student where num between 103 and 106;
# 接着, 再对返回的列当中的score字段进行聚合查询, 即 select SUM(score) from student where num between 103 and 106;
# 这样, 便求出满足条件的所有学生的成绩之和了。
mysql> select * from student where num  between 103 and 106;
+-----+-------+-------+
| num | name  | score |
+-----+-------+-------+
| 103 | hui   |    72 |
| 104 | fang  |   100 |
| 105 | li    |    88 |
| 106 | cheng |  NULL |
+-----+-------+-------+
4 rows in set (0.00 sec)

mysql> select SUM(score) from student where num between 103 and 106;
+------------+
| SUM(score) |
+------------+
|        260 |
+------------+
1 row in set (0.00 sec)

1.3 AVG()
返回指定列的值的总和的平均值。
同样,SUM()函数在计算时,忽略列值为NULL的行。

mysql> select AVG(score) AS average from student;
+---------+
| average |
+---------+
|    85.4 |
+---------+
1 row in set (0.00 sec)

如上所示,根据测试结果(总和/个数),其中的个数为5个,AVG()会启动忽略列值为NULL的行。


1.4 MAX()
返回指定列中的最大值。
同样,MAX()函数在计算时,忽略列值为NULL的行。

mysql> select MAX(score) AS maximum from student;
+---------+
| maximum |
+---------+
|     100 |
+---------+
1 row in set (0.04 sec)

1.5 MIN()
返回指定列中的最小值。
同样,MIN()函数在计算时,忽略列值为NULL的行。文章来源地址https://www.toymoban.com/news/detail-435291.html

mysql> select MIN(score) AS minimum from student;
+---------+
| minimum |
+---------+
|      69 |
+---------+
1 row in set (0.00 sec)

到了这里,关于MySQL查询之聚合函数查询的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ODBC 配置数据源(SQL server)

    1、在控制面板管理工具中找到\\\"数据源ODBC\\\",并启动。 2、点击添加 3、选中 sqlserver 4、填写服务器地址 5、填写登陆账号、密码 6、选择默认连接的数据库 7、配置完成,可以测试连接

    2024年02月07日
    浏览(37)
  • Spark SQL数据源:Hive表

    Spark SQL还支持读取和写入存储在Apache Hive中的数据。然而,由于Hive有大量依赖项,这些依赖项不包括在默认的Spark发行版中,如果在classpath上配置了这些Hive依赖项,Spark就会自动加载它们。需要注意的是,这些Hive依赖项必须出现在所有Worker节点上,因为它们需要访问Hive序列化

    2024年02月11日
    浏览(37)
  • Spark SQL数据源 - 基本操作

    一、案例演示读取Parquet文件 执行命令: cd $SPARK_HOME/examples/src/main/resources ,查看Spark的样例数据文件users.parquet 将数据文件users.parquet上传到HDFS的/datasource/input目录 二、在Spark Shell中演示 启动Spark Shell,执行命令: spark-shell --master spark://master:7077 执行命令: val userdf = spark.read

    2024年02月09日
    浏览(41)
  • Spark SQL数据源的基本操作

    Spark SQL提供了两个常用的加载数据和写入数据的方法:load()方法和save()方法。load()方法可以加载外部数据源为一个DataFrame,save()方法可以将一个DataFrame写入指定的数据源。 默认情况下,load()方法和save()方法只支持Parquet格式的文件,Parquet文件是以二进制方式存储数据的,因此

    2024年02月09日
    浏览(47)
  • java serverlets使用数据源连接oracle数据库,并执行查询操作代码

    package chap03; import java.io.IOException; import java.io.PrintWriter; import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.PreparedStatement; import java.sql.Statement; import java.util.*; import javax.naming.Context; import javax.naming.InitialContext; import javax.naming.Namin

    2024年02月08日
    浏览(55)
  • 4.2 Spark SQL数据源 - 基本操作

    案例演示读取Parquet文件 查看Spark的样例数据文件users.parquet 1、在Spark Shell中演示 启动Spark Shell 查看数据帧内容 查看数据帧模式 对数据帧指定列进行查询,查询结果依然是数据帧,然后通过write成员的save()方法写入HDFS指定目录 查看HDFS上的输出结果 执行SQL查询 查看HDFS上的输

    2024年02月08日
    浏览(47)
  • springboot + (mysql/pgsql) + jpa 多数据源(不同类数据源)

     配置文件: datasourceconfig: 数据源一: 数据源二:

    2024年02月14日
    浏览(58)
  • ruoyi(若依)配置多数据源(mysql+postgresql),rouyi(Springboot)多数据源设置

    (1)修改DatasourceType (2)修改DruidConfig,这里有很多细节要注意,就是大小写的问题 (3)使用选择数据源,会自动切换数据源

    2024年02月16日
    浏览(64)
  • MySQL数据库增删改查及聚合查询SQL语句学习汇总

    目录 数据库增删改查SQL语句 MySQL数据库指令 1.查询数据库 2.创建数据库 3.删除数据库 4.选择数据库 创建表table   查看所有表 创建表 查看指定表的结构 删除表 数据库命令进行注释 增删改查(CRUD)详细说明 增加 SQL库提供了关于时间的函数:now()  查询 查询表作列与列之间进

    2024年02月09日
    浏览(86)
  • 若依分离版——配置多数据源(mysql和oracle),实现一个方法操作多个数据源

    目录 一、若依平台配置           二、编写oracle数据库访问的各类文件  三.  一个方法操作多个数据源 一、若依平台配置 1、在ruoyi-admin的pom.xml添加oracle依赖 2、引入ojdbc6.jar包 在ruoyi-admin的resource下创建lib文件夹,将ojdbc6.jar包保存在此目录下 3.  刷新maven 刷新maven保证ruo

    2024年02月05日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包