【MySql笔记】1.0

记录去重

SELECT DISTINCT USER_NAME FROM USER;

空值运算

使用函数 IFNULL(字段名,替换值) 如果是该字段值是null 则替换成相应设置值

显示表结构

DESCRIBE TABLE; 显示表中详细的字段及约束及类型等等…

DESC TABLE;

加密解密函数

PASSWORD(STR) 41位长度加密,且加密结果不可逆,在版本8.0后已经弃用
MD5(STR) MD5加密
SHA(STR) 从原明文密码计算并返回加密后的字符串,SHA加密算法比MD5更加安全
ENCODE(value, password_seed) 返回使用password_seed作为加密的value,在版本8.0后已经弃用
DECODE(value, password_seed) 返回使用password_seed作为解密的value,在版本8.0后已经弃用

MYSQL8.0实用新特性

窗口函数
测试表结构:

新特性1:窗口函数

使用窗口函数前后对比

假设我现在有这样一个数据表,它显示了某购物网站在每个城市每个区的销售额:
CREATE TABLE sales(
id INT PRIMARY KEY AUTO_INCREMENT,
city VARCHAR(15),
county VARCHAR(15),
sales_value DECIMAL
);
INSERT INTO sales(city,county,sales_value)
VALUES
(‘北京’,‘海淀’,10.00),
(‘北京’,‘朝阳’,20.00),
(‘上海’,‘黄埔’,30.00),
(‘上海’,‘长宁’,10.00);

查询:
mysql> SELECT * FROM sales;
±—±-----±-------±------------+
| id | city | county | sales_value |
±—±-----±-------±------------+
| 1 | 北京 | 海淀 | 10 |
| 2 | 北京 | 朝阳 | 20 |
| 3 | 上海 | 黄埔 | 30 |
| 4 | 上海 | 长宁 | 10 |
±—±-----±-------±------------+
4 rows in set (0.00 sec)

**需求:**现在计算这个网站在每个城市的销售总额、在全国的销售总额、每个区的销售额占所在城市销售额中的比率,以及占总销售额中的比率。

如果用分组和聚合函数,就需要分好几步来计算。
第一步,计算总销售金额,并存入临时表 a:
CREATE TEMPORARY TABLE a – 创建临时表
SELECT SUM(sales_value) AS sales_value – 计算总计金额
FROM sales;
mysql> SELECT * FROM a;
±------------+
| sales_value |
±------------+
| 70 |
±------------+
1 row in set (0.00 sec)
第二步,计算每个城市的销售总额并存入临时表 b:
CREATE TEMPORARY TABLE b – 创建临时表
SELECT city,SUM(sales_value) AS sales_value – 计算城市销售合计
FROM sales
GROUP BY city;
mysql> SELECT * FROM b;
±-----±------------+
| city | sales_value |
±-----±------------+
| 北京 | 30 |
| 上海 | 40 |
±-----±------------+
2 rows in set (0.00 sec)
第三步,计算各区的销售占所在城市的总计金额的比例,和占全部销售总计金额的比例。我们可以通过下面的连接查询获得需要的结果:
mysql> SELECT s.city AS 城市,s.county AS 区,s.sales_value AS 区销售额,
-> b.sales_value AS 市销售额,s.sales_value/b.sales_value AS 市比率,
-> a.sales_value AS 总销售额,s.sales_value/a.sales_value AS 总比率
-> FROM sales s
-> JOIN b ON (s.city=b.city) – 连接市统计结果临时表
-> JOIN a – 连接总计金额临时表
-> ORDER BY s.city,s.county;
±-----±-----±---------±---------±-------±---------±-------+
| 城市 | 区 | 区销售额 | 市销售额 | 市比率 | 总销售额 | 总比率 |
±-----±-----±---------±---------±-------±---------±-------+
| 上海 | 长宁 | 10 | 40 | 0.2500 | 70 | 0.1429 |
| 上海 | 黄埔 | 30 | 40 | 0.7500 | 70 | 0.4286 |
| 北京 | 朝阳 | 20 | 30 | 0.6667 | 70 | 0.2857 |
| 北京 | 海淀 | 10 | 30 | 0.3333 | 70 | 0.1429 |
±-----±-----±---------±---------±-------±---------±-------+
4 rows in set (0.00 sec)

结果显示:市销售金额、市销售占比、总销售金额、总销售占比都计算出来了。
同样的查询,如果用窗口函数,就简单多了。我们可以用下面的代码来实现:
mysql> SELECT city AS 城市,county AS 区,sales_value AS 区销售额,
-> SUM(sales_value) OVER(PARTITION BY city) AS 市销售额, – 计算市销售额
-> sales_value/SUM(sales_value) OVER(PARTITION BY city) AS 市比率,
-> SUM(sales_value) OVER() AS 总销售额, – 计算总销售额
-> sales_value/SUM(sales_value) OVER() AS 总比率
-> FROM sales
-> ORDER BY city,county;
±-----±-----±---------±---------±-------±---------±-------+
| 城市 | 区 | 区销售额 | 市销售额 | 市比率 | 总销售额 | 总比率 |
±-----±-----±---------±---------±-------±---------±-------+
| 上海 | 长宁 | 10 | 40 | 0.2500 | 70 | 0.1429 |
| 上海 | 黄埔 | 30 | 40 | 0.7500 | 70 | 0.4286 |
| 北京 | 朝阳 | 20 | 30 | 0.6667 | 70 | 0.2857 |
| 北京 | 海淀 | 10 | 30 | 0.3333 | 70 | 0.1429 |
±-----±-----±---------±----------±-------±---------±-------+
4 rows in set (0.00 sec)
结果显示,我们得到了与上面那种查询同样的结果。
使用窗口函数,只用了一步就完成了查询。而且,由于没有用到临时表,执行的效率也更高了。很显然,在这种需要用到分组统计的结果对每一条记录进行计算的场景下,使用窗口函数更好

窗口函数分类

MySQL从8.0版本开始支持窗口函数。窗口函数的作用类似于在查询中对数据进行分组,不同的是,分组操作会把分组的结果聚合成一条记录,而窗口函数是将结果置于每一条数据记录中。
窗口函数可以分为静态窗口函数动态窗口函数

  • 静态窗口函数的窗口大小是固定的,不会因为记录的不同而不同;
  • 动态窗口函数的窗口大小会随着记录的不同而变化。
    MySQL官方网站窗口函数(点击跳转)
    窗口函数总体上可以分为序号函数、分布函数、前后函数、首尾函数和其他函数,如下表:
    窗口函数分类

语法结构

窗口函数的语法结构是:
函数 OVER([PARTITION BY 字段名 ORDER BY 字段名 ASC|DESC])
或者
函数 OVER 窗口名 … WINDOW 窗口名 AS ([PARTITION BY 字段名 ORDER BY 字段名 ASC|DESC])

  • OVER 关键字指定函数窗口的范围。
  • 如果省略后面括号中的内容,则窗口会包含满足WHERE条件的所有记录,窗口函数会基于所有满足WHERE条件的记录进行计算。
  • 如果OVER关键字后面的括号不为空,则可以使用如下语法设置窗口。
  • 窗口名:为窗口设置一个别名,用来标识窗口。
  • PARTITION BY子句:指定窗口函数按照哪些字段进行分组。分组后,窗口函数可以在每个分组中分别执行。
  • ORDER BY子句:指定窗口函数按照哪些字段进行排序。执行排序操作使窗口函数按照排序后的数据记录的顺序进行编号。
  • FRAME子句:为分区中的某个子集定义规则,可以用来作为滑动窗口使用。

分类讲解

测试数据
CREATE TABLE goods(
id INT PRIMARY KEY AUTO_INCREMENT,
category_id INT,
category VARCHAR(15),
NAME VARCHAR(30),
price DECIMAL(10,2),
stock INT,
upper_time DATETIME
);
INSERT INTO goods(category_id,category,NAME,price,stock,upper_time)
VALUES
(1, ‘女装/女士精品’, ‘T恤’, 39.90, 1000, ‘2020-11-10 00:00:00’),
(1, ‘女装/女士精品’, ‘连衣裙’, 79.90, 2500, ‘2020-11-10 00:00:00’),
(1, ‘女装/女士精品’, ‘卫衣’, 89.90, 1500, ‘2020-11-10 00:00:00’),
(1, ‘女装/女士精品’, ‘牛仔裤’, 89.90, 3500, ‘2020-11-10 00:00:00’),
(1, ‘女装/女士精品’, ‘百褶裙’, 29.90, 500, ‘2020-11-10 00:00:00’),
(1, ‘女装/女士精品’, ‘呢绒外套’, 399.90, 1200, ‘2020-11-10 00:00:00’),
(2, ‘户外运动’, ‘自行车’, 399.90, 1000, ‘2020-11-10 00:00:00’),
(2, ‘户外运动’, ‘山地自行车’, 1399.90, 2500, ‘2020-11-10 00:00:00’),
(2, ‘户外运动’, ‘登山杖’, 59.90, 1500, ‘2020-11-10 00:00:00’),
(2, ‘户外运动’, ‘骑行装备’, 399.90, 3500, ‘2020-11-10 00:00:00’),
(2, ‘户外运动’, ‘运动外套’, 799.90, 500, ‘2020-11-10 00:00:00’),
(2, ‘户外运动’, ‘滑板’, 499.90, 1200, ‘2020-11-10 00:00:00’);

1、序号函数
1、ROW_NUMBER()函数

ROW_NUMBER()函数能够对数据中的序号进行顺序显示。
举例:查询 goods 数据表中每个商品分类下价格降序排列的各个商品信息。
mysql> SELECT ROW_NUMBER() OVER(PARTITION BY category_id ORDER BY price DESC) AS row_num,
-> id, category_id, category, NAME, price, stock
-> FROM goods;
±--------±—±------------±--------------±-----------±--------±------+
| row_num | id | category_id | category | NAME | price | stock |
±--------±—±------------±--------------±-----------±--------±------+
| 1 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 3 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 4 | 2 | 1 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 |
| 5 | 1 | 1 | 女装/女士精品 | T恤 | 39.90 | 1000 |
| 6 | 5 | 1 | 女装/女士精品 | 百褶裙 | 29.90 | 500 |
| 1 | 8 | 2 | 户外运动 | 山地自行车 | 1399.90 | 2500 |
| 2 | 11 | 2 | 户外运动 | 运动外套 | 799.90 | 500 |
| 3 | 12 | 2 | 户外运动 | 滑板 | 499.90 | 1200 |
| 4 | 7 | 2 | 户外运动 | 自行车 | 399.90 | 1000 |
| 5 | 10 | 2 | 户外运动 | 骑行装备 | 399.90 | 3500 |
| 6 | 9 | 2 | 户外运动 | 登山杖 | 59.90 | 1500 |
±--------±—±------------±--------------±-----------±--------±------+
12 rows in set (0.00 sec)

举例:查询 goods 数据表中每个商品分类下价格最高的3种商品信息。
mysql> SELECT *
-> FROM (
-> SELECT ROW_NUMBER() OVER(PARTITION BY category_id ORDER BY price DESC) AS row_num,
-> id, category_id, category, NAME, price, stock
-> FROM goods) t
-> WHERE row_num <= 3;
±--------±—±------------±--------------±-----------±--------±------+
| row_num | id | category_id | category | NAME | price | stock |
±--------±—±------------±--------------±-----------±--------±------+
| 1 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 3 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 1 | 8 | 2 | 户外运动 | 山地自行车 | 1399.90 | 2500 |
| 2 | 11 | 2 | 户外运动 | 运动外套 | 799.90 | 500 |
| 3 | 12 | 2 | 户外运动 | 滑板 | 499.90 | 1200 |
±--------±—±------------±--------------±-----------±---------±------+
6 rows in set (0.00 sec)

在名称为“女装/女士精品”的商品类别中,有两款商品的价格为89.90元,分别是卫衣和牛仔裤。两款商品的序号都应该为2,而不是一个为2,另一个为3。此时,可以使用RANK()函数和DENSE_RANK()函数解决。

2、RANK()函数

使用RANK()函数能够对序号进行并列排序,并且会跳过重复的序号,比如序号为1、1、3。
举例:使用RANK()函数获取 goods 数据表中各类别的价格从高到低排序的各商品信息。
mysql> SELECT RANK() OVER(PARTITION BY category_id ORDER BY price DESC) AS row_num,
-> id, category_id, category, NAME, price, stock
-> FROM goods;
±--------±—±------------±--------------±-----------±--------±------+
| row_num | id | category_id | category | NAME | price | stock |
±--------±—±------------±--------------±-----------±--------±------+
| 1 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 2 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 4 | 2 | 1 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 |
| 5 | 1 | 1 | 女装/女士精品 | T恤 | 39.90 | 1000 |
| 6 | 5 | 1 | 女装/女士精品 | 百褶裙 | 29.90 | 500 |
| 1 | 8 | 2 | 户外运动 | 山地自行车 | 1399.90 | 2500 |
| 2 | 11 | 2 | 户外运动 | 运动外套 | 799.90 | 500 |
| 3 | 12 | 2 | 户外运动 | 滑板 | 499.90 | 1200 |
| 4 | 7 | 2 | 户外运动 | 自行车 | 399.90 | 1000 |
| 4 | 10 | 2 | 户外运动 | 骑行装备 | 399.90 | 3500 |
| 6 | 9 | 2 | 户外运动 | 登山杖 | 59.90 | 1500 |
±--------±—±------------±--------------±-----------±--------±------+
12 rows in set (0.00 sec)

举例:使用RANK()函数获取 goods 数据表中类别为“女装/女士精品”的价格最高的4款商品信息。
mysql> SELECT *
-> FROM(
-> SELECT RANK() OVER(PARTITION BY category_id ORDER BY price DESC) AS row_num,
-> id, category_id, category, NAME, price, stock
-> FROM goods) t
-> WHERE category_id = 1 AND row_num <= 4;
±--------±—±------------±--------------±---------±-------±------+
| row_num | id | category_id | category | NAME | price | stock |
±--------±—±------------±--------------±---------±-------±------+
| 1 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 2 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 4 | 2 | 1 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 |
±--------±—±------------±--------------±---------±-------±------+
4 rows in set (0.00 sec)
可以看到,使用RANK()函数得出的序号为1、2、2、4,相同价格的商品序号相同,后面的商品序号是不连续的,跳过了重复的序号。

3、DENSE_RANK()函数

DENSE_RANK()函数对序号进行并列排序,并且不会跳过重复的序号,比如序号为1、1、2。
举例:使用DENSE_RANK()函数获取 goods 数据表中各类别的价格从高到低排序的各商品信息。
mysql> SELECT DENSE_RANK() OVER(PARTITION BY category_id ORDER BY price DESC) AS row_num,
-> id, category_id, category, NAME, price, stock
-> FROM goods;
±--------±—±------------±--------------±-----------±--------±------+
| row_num | id | category_id | category | NAME | price | stock |
±--------±—±------------±--------------±-----------±--------±------+
| 1 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 2 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 3 | 2 | 1 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 |
| 4 | 1 | 1 | 女装/女士精品 | T恤 | 39.90 | 1000 |
| 5 | 5 | 1 | 女装/女士精品 | 百褶裙 | 29.90 | 500 |
| 1 | 8 | 2 | 户外运动 | 山地自行车 | 1399.90 | 2500 |
| 2 | 11 | 2 | 户外运动 | 运动外套 | 799.90 | 500 |
| 3 | 12 | 2 | 户外运动 | 滑板 | 499.90 | 1200 |
| 4 | 7 | 2 | 户外运动 | 自行车 | 399.90 | 1000 |
| 4 | 10 | 2 | 户外运动 | 骑行装备 | 399.90 | 3500 |
| 5 | 9 | 2 | 户外运动 | 登山杖 | 59.90 | 1500 |
±--------±—±------------±--------------±-----------±--------±------+
12 rows in set (0.00 sec)

举例:使用DENSE_RANK()函数获取 goods 数据表中类别为“女装/女士精品”的价格最高的4款商品信息。
mysql> SELECT *
-> FROM(
-> SELECT DENSE_RANK() OVER(PARTITION BY category_id ORDER BY price DESC) AS row_num,
-> id, category_id, category, NAME, price, stock
-> FROM goods) t
-> WHERE category_id = 1 AND row_num <= 3;
±--------±—±------------±--------------±---------±-------±------+
| row_num | id | category_id | category | NAME | price | stock |
±--------±—±------------±--------------±---------±-------±------+
| 1 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 2 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 3 | 2 | 1 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 |
±--------±—±------------±--------------±---------±-------±------+
4 rows in set (0.00 sec)
可以看到,使用DENSE_RANK()函数得出的行号为1、2、2、3,相同价格的商品序号相同,后面的商品序号是连续的,并且没有跳过重复的序号。

2、分布函数
1、PERCENT_RANK()函数

PERCENT_RANK()函数是等级值百分比函数。按照如下方式进行计算。
(rank - 1) / (rows - 1)
其中,rank的值为使用RANK()函数产生的序号,rows的值为当前窗口的总记录数。
举例:计算 goods 数据表中名称为“女装/女士精品”的类别下的商品的PERCENT_RANK值。
#写法一:
SELECT RANK() OVER (PARTITION BY category_id ORDER BY price DESC) AS r,
PERCENT_RANK() OVER (PARTITION BY category_id ORDER BY price DESC) AS pr,
id, category_id, category, NAME, price, stock
FROM goods
WHERE category_id = 1;
#写法二:
mysql> SELECT RANK() OVER w AS r,
-> PERCENT_RANK() OVER w AS pr,
-> id, category_id, category, NAME, price, stock
-> FROM goods
-> WHERE category_id = 1 WINDOW w AS (PARTITION BY category_id ORDER BY price DESC);
±–±----±—±------------±--------------±---------±-------±------+
| r | pr | id | category_id | category | NAME | price | stock |
±–±----±—±------------±--------------±---------±-------±------+
| 1 | 0 | 6 | 1 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 |
| 2 | 0.2 | 3 | 1 | 女装/女士精品 | 卫衣 | 89.90 | 1500 |
| 2 | 0.2 | 4 | 1 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 |
| 4 | 0.6 | 2 | 1 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 |
| 5 | 0.8 | 1 | 1 | 女装/女士精品 | T恤 | 39.90 | 1000 |
| 6 | 1 | 5 | 1 | 女装/女士精品 | 百褶裙 | 29.90 | 500 |
±–±----±—±------------±--------------±---------±-------±------+
6 rows in set (0.00 sec)

2、CUME_DIST()函数

CUME_DIST()函数主要用于查询小于或等于某个值的比例。
举例:查询goods数据表中小于或等于当前价格的比例。
mysql> SELECT CUME_DIST() OVER(PARTITION BY category_id ORDER BY price ASC) AS cd,
-> id, category, NAME, price
-> FROM goods;
±--------------------±—±--------------±-----------±--------+
| cd | id | category | NAME | price |
±--------------------±—±--------------±-----------±--------+
| 0.16666666666666666 | 5 | 女装/女士精品 | 百褶裙 | 29.90 |
| 0.3333333333333333 | 1 | 女装/女士精品 | T恤 | 39.90 |
| 0.5 | 2 | 女装/女士精品 | 连衣裙 | 79.90 |
| 0.8333333333333334 | 3 | 女装/女士精品 | 卫衣 | 89.90 |
| 0.8333333333333334 | 4 | 女装/女士精品 | 牛仔裤 | 89.90 |
| 1 | 6 | 女装/女士精品 | 呢绒外套 | 399.90 |
| 0.16666666666666666 | 9 | 户外运动 | 登山杖 | 59.90 |
| 0.5 | 7 | 户外运动 | 自行车 | 399.90 |
| 0.5 | 10 | 户外运动 | 骑行装备 | 399.90 |
| 0.6666666666666666 | 12 | 户外运动 | 滑板 | 499.90 |
| 0.8333333333333334 | 11 | 户外运动 | 运动外套 | 799.90 |
| 1 | 8 | 户外运动 | 山地自行车 | 1399.90 |
±--------------------±—±--------------±-----------±--------+

3、前后函数

3.1 LAG(expr,n)函数
LAG(expr,n)函数返回当前行的前n行的expr的值。
举例:查询goods数据表中前一个商品价格与当前商品价格的差值。
mysql> SELECT id, category, NAME, price, pre_price, price - pre_price AS diff_price
-> FROM (
-> SELECT id, category, NAME, price,LAG(price,1) OVER w AS pre_price
-> FROM goods
-> WINDOW w AS (PARTITION BY category_id ORDER BY price)) t;
±—±--------------±-----------±--------±----------±-----------+
| id | category | NAME | price | pre_price | diff_price |
±—±--------------±-----------±--------±----------±-----------+
| 5 | 女装/女士精品 | 百褶裙 | 29.90 | NULL | NULL |
| 1 | 女装/女士精品 | T恤 | 39.90 | 29.90 | 10.00 |
| 2 | 女装/女士精品 | 连衣裙 | 79.90 | 39.90 | 40.00 |
| 3 | 女装/女士精品 | 卫衣 | 89.90 | 79.90 | 10.00 |
| 4 | 女装/女士精品 | 牛仔裤 | 89.90 | 89.90 | 0.00 |
| 6 | 女装/女士精品 | 呢绒外套 | 399.90 | 89.90 | 310.00 |
| 9 | 户外运动 | 登山杖 | 59.90 | NULL | NULL |
| 7 | 户外运动 | 自行车 | 399.90 | 59.90 | 340.00 |
| 10 | 户外运动 | 骑行装备 | 399.90 | 399.90 | 0.00 |
| 12 | 户外运动 | 滑板 | 499.90 | 399.90 | 100.00 |
| 11 | 户外运动 | 运动外套 | 799.90 | 499.90 | 300.00 |
| 8 | 户外运动 | 山地自行车 | 1399.90 | 799.90 | 600.00 |
±—±--------------±-----------±--------±----------±-----------+
12 rows in set (0.00 sec)

3.2 LEAD(expr,n)函数
LEAD(expr,n)函数返回当前行的后n行的expr的值。
举例:查询goods数据表中后一个商品价格与当前商品价格的差值。
mysql> SELECT id, category, NAME, behind_price, price,behind_price - price AS diff_price
-> FROM(
-> SELECT id, category, NAME, price,LEAD(price, 1) OVER w AS behind_price
-> FROM goods WINDOW w AS (PARTITION BY category_id ORDER BY price)) t;
±—±--------------±-----------±-------------±--------±-----------+
| id | category | NAME | behind_price | price | diff_price |
±—±--------------±-----------±-------------±--------±-----------+
| 5 | 女装/女士精品 | 百褶裙 | 39.90 | 29.90 | 10.00 |
| 1 | 女装/女士精品 | T恤 | 79.90 | 39.90 | 40.00 |
| 2 | 女装/女士精品 | 连衣裙 | 89.90 | 79.90 | 10.00 |
| 3 | 女装/女士精品 | 卫衣 | 89.90 | 89.90 | 0.00 |
| 4 | 女装/女士精品 | 牛仔裤 | 399.90 | 89.90 | 310.00 |
| 6 | 女装/女士精品 | 呢绒外套 | NULL | 399.90 | NULL |
| 9 | 户外运动 | 登山杖 | 399.90 | 59.90 | 340.00 |
| 7 | 户外运动 | 自行车 | 399.90 | 399.90 | 0.00 |
| 10 | 户外运动 | 骑行装备 | 499.90 | 399.90 | 100.00 |
| 12 | 户外运动 | 滑板 | 799.90 | 499.90 | 300.00 |
| 11 | 户外运动 | 运动外套 | 1399.90 | 799.90 | 600.00 |
| 8 | 户外运动 | 山地自行车 | NULL | 1399.90 | NULL |
±—±--------------±-----------±-------------±--------±-----------+
12 rows in set (0.00 sec)

4、首尾函数

4.1 FIRST_VALUE(expr)函数
FIRST_VALUE(expr)函数返回第一个expr的值。
举例:按照价格排序,查询第1个商品的价格信息。
mysql> SELECT id, category, NAME, price, stock,FIRST_VALUE(price) OVER w AS first_price
-> FROM goods WINDOW w AS (PARTITION BY category_id ORDER BY price);
±—±--------------±-----------±--------±------±------------+
| id | category | NAME | price | stock | first_price |
±—±--------------±-----------±--------±------±------------+
| 5 | 女装/女士精品 | 百褶裙 | 29.90 | 500 | 29.90 |
| 1 | 女装/女士精品 | T恤 | 39.90 | 1000 | 29.90 |
| 2 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 | 29.90 |
| 3 | 女装/女士精品 | 卫衣 | 89.90 | 1500 | 29.90 |
| 4 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 | 29.90 |
| 6 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 | 29.90 |
| 9 | 户外运动 | 登山杖 | 59.90 | 1500 | 59.90 |
| 7 | 户外运动 | 自行车 | 399.90 | 1000 | 59.90 |
| 10 | 户外运动 | 骑行装备 | 399.90 | 3500 | 59.90 |
| 12 | 户外运动 | 滑板 | 499.90 | 1200 | 59.90 |
| 11 | 户外运动 | 运动外套 | 799.90 | 500 | 59.90 |
| 8 | 户外运动 | 山地自行车 | 1399.90 | 2500 | 59.90 |
±—±--------------±-----------±--------±------±------------+
12 rows in set (0.00 sec)

4.2 LAST_VALUE(expr)函数
LAST_VALUE(expr)函数返回最后一个expr的值。
举例:按照价格排序,查询最后一个商品的价格信息。
mysql> SELECT id, category, NAME, price, stock,LAST_VALUE(price) OVER w AS last_price
-> FROM goods WINDOW w AS (PARTITION BY category_id ORDER BY price);
±—±--------------±-----------±--------±------±-----------+
| id | category | NAME | price | stock | last_price |
±—±--------------±-----------±--------±------±-----------+
| 5 | 女装/女士精品 | 百褶裙 | 29.90 | 500 | 29.90 |
| 1 | 女装/女士精品 | T恤 | 39.90 | 1000 | 39.90 |
| 2 | 女装/女士精品 | 连衣裙 | 79.90 | 2500 | 79.90 |
| 3 | 女装/女士精品 | 卫衣 | 89.90 | 1500 | 89.90 |
| 4 | 女装/女士精品 | 牛仔裤 | 89.90 | 3500 | 89.90 |
| 6 | 女装/女士精品 | 呢绒外套 | 399.90 | 1200 | 399.90 |
| 9 | 户外运动 | 登山杖 | 59.90 | 1500 | 59.90 |
| 7 | 户外运动 | 自行车 | 399.90 | 1000 | 399.90 |
| 10 | 户外运动 | 骑行装备 | 399.90 | 3500 | 399.90 |
| 12 | 户外运动 | 滑板 | 499.90 | 1200 | 499.90 |
| 11 | 户外运动 | 运动外套 | 799.90 | 500 | 799.90 |
| 8 | 户外运动 | 山地自行车 | 1399.90 | 2500 | 1399.90 |
±—±--------------±-----------±--------±------±-----------+
12 rows in set (0.00 sec)

5、 其他函数

5.1 NTH_VALUE(expr,n)函数
NTH_VALUE(expr,n)函数返回第n个expr的值。
举例:查询goods数据表中排名第2和第3的价格信息。
mysql> SELECT id, category, NAME, price,NTH_VALUE(price,2) OVER w AS second_price,
-> NTH_VALUE(price,3) OVER w AS third_price
-> FROM goods WINDOW w AS (PARTITION BY category_id ORDER BY price);
±—±--------------±-----------±--------±-------------±------------+
| id | category | NAME | price | second_price | third_price |
±—±--------------±-----------±--------±-------------±------------+
| 5 | 女装/女士精品 | 百褶裙 | 29.90 | NULL | NULL |
| 1 | 女装/女士精品 | T恤 | 39.90 | 39.90 | NULL |
| 2 | 女装/女士精品 | 连衣裙 | 79.90 | 39.90 | 79.90 |
| 3 | 女装/女士精品 | 卫衣 | 89.90 | 39.90 | 79.90 |
| 4 | 女装/女士精品 | 牛仔裤 | 89.90 | 39.90 | 79.90 |
| 6 | 女装/女士精品 | 呢绒外套 | 399.90 | 39.90 | 79.90 |
| 9 | 户外运动 | 登山杖 | 59.90 | NULL | NULL |
| 7 | 户外运动 | 自行车 | 399.90 | 399.90 | 399.90 |
| 10 | 户外运动 | 骑行装备 | 399.90 | 399.90 | 399.90 |
| 12 | 户外运动 | 滑板 | 499.90 | 399.90 | 399.90 |
| 11 | 户外运动 | 运动外套 | 799.90 | 399.90 | 399.90 |
| 8 | 户外运动 | 山地自行车 | 1399.90 | 399.90 | 399.90 |
±—±--------------±-----------±--------±-------------±------------+
12 rows in set (0.00 sec)

5.2 NTILE(n)函数
NTILE(n)函数将分区中的有序数据分为n个桶,记录桶编号。
举例:将goods表中的商品按照价格分为3组。
mysql> SELECT NTILE(3) OVER w AS nt,id, category, NAME, price
-> FROM goods WINDOW w AS (PARTITION BY category_id ORDER BY price);
±—±---±--------------±-----------±--------+
| nt | id | category | NAME | price |
±—±---±--------------±-----------±--------+
| 1 | 5 | 女装/女士精品 | 百褶裙 | 29.90 |
| 1 | 1 | 女装/女士精品 | T恤 | 39.90 |
| 2 | 2 | 女装/女士精品 | 连衣裙 | 79.90 |
| 2 | 3 | 女装/女士精品 | 卫衣 | 89.90 |
| 3 | 4 | 女装/女士精品 | 牛仔裤 | 89.90 |
| 3 | 6 | 女装/女士精品 | 呢绒外套 | 399.90 |
| 1 | 9 | 户外运动 | 登山杖 | 59.90 |
| 1 | 7 | 户外运动 | 自行车 | 399.90 |
| 2 | 10 | 户外运动 | 骑行装备 | 399.90 |
| 2 | 12 | 户外运动 | 滑板 | 499.90 |
| 3 | 11 | 户外运动 | 运动外套 | 799.90 |
| 3 | 8 | 户外运动 | 山地自行车 | 1399.90 |
±—±---±--------------±-----------±--------+
12 rows in set (0.00 sec)

小结:窗口函数的特点是可以分组,而且可以在分组内排序。另外,窗口函数不会因为分组而减少原表中的行数,这对我们在原表数据的基础上进行统计和排序非常有用。

新特性2:公用表表达式

测试数据
CREATE TABLE countries (
country_id char(2) NOT NULL,
country_name varchar(40) DEFAULT NULL,
region_id int(11) DEFAULT NULL,
PRIMARY KEY (country_id),
KEY countr_reg_fk (region_id),
CONSTRAINT countr_reg_fk FOREIGN KEY (region_id) REFERENCES regions (region_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

insert into countries(country_id,country_name,region_id) values (‘AR’,‘Argentina’,2),(‘AU’,‘Australia’,3),(‘BE’,‘Belgium’,1),(‘BR’,‘Brazil’,2),(‘CA’,‘Canada’,2),(‘CH’,‘Switzerland’,1),(‘CN’,‘China’,3),(‘DE’,‘Germany’,1),(‘DK’,‘Denmark’,1),(‘EG’,‘Egypt’,4),(‘FR’,‘France’,1),(‘HK’,‘HongKong’,3),(‘IL’,‘Israel’,4),(‘IN’,‘India’,3),(‘IT’,‘Italy’,1),(‘JP’,‘Japan’,3),(‘KW’,‘Kuwait’,4),(‘MX’,‘Mexico’,2),(‘NG’,‘Nigeria’,4),(‘NL’,‘Netherlands’,1),(‘SG’,‘Singapore’,3),(‘UK’,‘United Kingdom’,1),(‘US’,‘United States of America’,2),(‘ZM’,‘Zambia’,4),(‘ZW’,‘Zimbabwe’,4);

CREATE TABLE departments (
department_id int(4) NOT NULL DEFAULT ‘0’,
department_name varchar(30) NOT NULL,
manager_id int(6) DEFAULT NULL,
location_id int(4) DEFAULT NULL,
PRIMARY KEY (department_id),
UNIQUE KEY dept_id_pk (department_id),
KEY dept_loc_fk (location_id),
KEY dept_mgr_fk (manager_id),
CONSTRAINT dept_loc_fk FOREIGN KEY (location_id) REFERENCES locations (location_id),
CONSTRAINT dept_mgr_fk FOREIGN KEY (manager_id) REFERENCES employees (employee_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

insert into departments(department_id,department_name,manager_id,location_id) values (10,‘Administration’,200,1700),(20,‘Marketing’,201,1800),(30,‘Purchasing’,114,1700),(40,‘Human Resources’,203,2400),(50,‘Shipping’,121,1500),(60,‘IT’,103,1400),(70,‘Public Relations’,204,2700),(80,‘Sales’,145,2500),(90,‘Executive’,100,1700),(100,‘Finance’,108,1700),(110,‘Accounting’,205,1700),(120,‘Treasury’,NULL,1700),(130,‘Corporate Tax’,NULL,1700),(140,‘Control And Credit’,NULL,1700),(150,‘Shareholder Services’,NULL,1700),(160,‘Benefits’,NULL,1700),(170,‘Manufacturing’,NULL,1700),(180,‘Construction’,NULL,1700),(190,‘Contracting’,NULL,1700),(200,‘Operations’,NULL,1700),(210,‘IT Support’,NULL,1700),(220,‘NOC’,NULL,1700),(230,‘IT Helpdesk’,NULL,1700),(240,‘Government Sales’,NULL,1700),(250,‘Retail Sales’,NULL,1700),(260,‘Recruiting’,NULL,1700),(270,‘Payroll’,NULL,1700);

CREATE TABLE employees (
employee_id int(6) NOT NULL DEFAULT ‘0’,
first_name varchar(20) DEFAULT NULL,
last_name varchar(25) NOT NULL,
email varchar(25) NOT NULL,
phone_number varchar(20) DEFAULT NULL,
hire_date date NOT NULL,
job_id varchar(10) NOT NULL,
salary double(8,2) DEFAULT NULL,
commission_pct double(2,2) DEFAULT NULL,
manager_id int(6) DEFAULT NULL,
department_id int(4) DEFAULT NULL,
PRIMARY KEY (employee_id),
UNIQUE KEY emp_email_uk (email),
UNIQUE KEY emp_emp_id_pk (employee_id),
KEY emp_dept_fk (department_id),
KEY emp_job_fk (job_id),
KEY emp_manager_fk (manager_id),
CONSTRAINT emp_dept_fk FOREIGN KEY (department_id) REFERENCES departments (department_id),
CONSTRAINT emp_job_fk FOREIGN KEY (job_id) REFERENCES jobs (job_id),
CONSTRAINT emp_manager_fk FOREIGN KEY (manager_id) REFERENCES employees (employee_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

insert into employees(employee_id,first_name,last_name,email,phone_number,hire_date,job_id,salary,commission_pct,manager_id,department_id) values (100,‘Steven’,‘King’,‘SKING’,‘515.123.4567’,‘1987-06-17’,‘AD_PRES’,24000.00,NULL,NULL,90),(101,‘Neena’,‘Kochhar’,‘NKOCHHAR’,‘515.123.4568’,‘1989-09-21’,‘AD_VP’,17000.00,NULL,100,90),(102,‘Lex’,‘De Haan’,‘LDEHAAN’,‘515.123.4569’,‘1993-01-13’,‘AD_VP’,17000.00,NULL,100,90),(103,‘Alexander’,‘Hunold’,‘AHUNOLD’,‘590.423.4567’,‘1990-01-03’,‘IT_PROG’,9000.00,NULL,102,60),(104,‘Bruce’,‘Ernst’,‘BERNST’,‘590.423.4568’,‘1991-05-21’,‘IT_PROG’,6000.00,NULL,103,60),(105,‘David’,‘Austin’,‘DAUSTIN’,‘590.423.4569’,‘1997-06-25’,‘IT_PROG’,4800.00,NULL,103,60),(106,‘Valli’,‘Pataballa’,‘VPATABAL’,‘590.423.4560’,‘1998-02-05’,‘IT_PROG’,4800.00,NULL,103,60),(107,‘Diana’,‘Lorentz’,‘DLORENTZ’,‘590.423.5567’,‘1999-02-07’,‘IT_PROG’,4200.00,NULL,103,60),(108,‘Nancy’,‘Greenberg’,‘NGREENBE’,‘515.124.4569’,‘1994-08-17’,‘FI_MGR’,12000.00,NULL,101,100),(109,‘Daniel’,‘Faviet’,‘DFAVIET’,‘515.124.4169’,‘1994-08-16’,‘FI_ACCOUNT’,9000.00,NULL,108,100),(110,‘John’,‘Chen’,‘JCHEN’,‘515.124.4269’,‘1997-09-28’,‘FI_ACCOUNT’,8200.00,NULL,108,100),(111,‘Ismael’,‘Sciarra’,‘ISCIARRA’,‘515.124.4369’,‘1997-09-30’,‘FI_ACCOUNT’,7700.00,NULL,108,100),(112,‘Jose Manuel’,‘Urman’,‘JMURMAN’,‘515.124.4469’,‘1998-03-07’,‘FI_ACCOUNT’,7800.00,NULL,108,100),(113,‘Luis’,‘Popp’,‘LPOPP’,‘515.124.4567’,‘1999-12-07’,‘FI_ACCOUNT’,6900.00,NULL,108,100),(114,‘Den’,‘Raphaely’,‘DRAPHEAL’,‘515.127.4561’,‘1994-12-07’,‘PU_MAN’,11000.00,NULL,100,30),(115,‘Alexander’,‘Khoo’,‘AKHOO’,‘515.127.4562’,‘1995-05-18’,‘PU_CLERK’,3100.00,NULL,114,30),(116,‘Shelli’,‘Baida’,‘SBAIDA’,‘515.127.4563’,‘1997-12-24’,‘PU_CLERK’,2900.00,NULL,114,30),(117,‘Sigal’,‘Tobias’,‘STOBIAS’,‘515.127.4564’,‘1997-07-24’,‘PU_CLERK’,2800.00,NULL,114,30),(118,‘Guy’,‘Himuro’,‘GHIMURO’,‘515.127.4565’,‘1998-11-15’,‘PU_CLERK’,2600.00,NULL,114,30),(119,‘Karen’,‘Colmenares’,‘KCOLMENA’,‘515.127.4566’,‘1999-08-10’,‘PU_CLERK’,2500.00,NULL,114,30),(120,‘Matthew’,‘Weiss’,‘MWEISS’,‘650.123.1234’,‘1996-07-18’,‘ST_MAN’,8000.00,NULL,100,50),(121,‘Adam’,‘Fripp’,‘AFRIPP’,‘650.123.2234’,‘1997-04-10’,‘ST_MAN’,8200.00,NULL,100,50),(122,‘Payam’,‘Kaufling’,‘PKAUFLIN’,‘650.123.3234’,‘1995-05-01’,‘ST_MAN’,7900.00,NULL,100,50),(123,‘Shanta’,‘Vollman’,‘SVOLLMAN’,‘650.123.4234’,‘1997-10-10’,‘ST_MAN’,6500.00,NULL,100,50),(124,‘Kevin’,‘Mourgos’,‘KMOURGOS’,‘650.123.5234’,‘1999-11-16’,‘ST_MAN’,5800.00,NULL,100,50),(125,‘Julia’,‘Nayer’,‘JNAYER’,‘650.124.1214’,‘1997-07-16’,‘ST_CLERK’,3200.00,NULL,120,50),(126,‘Irene’,‘Mikkilineni’,‘IMIKKILI’,‘650.124.1224’,‘1998-09-28’,‘ST_CLERK’,2700.00,NULL,120,50),(127,‘James’,‘Landry’,‘JLANDRY’,‘650.124.1334’,‘1999-01-14’,‘ST_CLERK’,2400.00,NULL,120,50),(128,‘Steven’,‘Markle’,‘SMARKLE’,‘650.124.1434’,‘2000-03-08’,‘ST_CLERK’,2200.00,NULL,120,50),(129,‘Laura’,‘Bissot’,‘LBISSOT’,‘650.124.5234’,‘1997-08-20’,‘ST_CLERK’,3300.00,NULL,121,50),(130,‘Mozhe’,‘Atkinson’,‘MATKINSO’,‘650.124.6234’,‘1997-10-30’,‘ST_CLERK’,2800.00,NULL,121,50),(131,‘James’,‘Marlow’,‘JAMRLOW’,‘650.124.7234’,‘1997-02-16’,‘ST_CLERK’,2500.00,NULL,121,50),(132,‘TJ’,‘Olson’,‘TJOLSON’,‘650.124.8234’,‘1999-04-10’,‘ST_CLERK’,2100.00,NULL,121,50),(133,‘Jason’,‘Mallin’,‘JMALLIN’,‘650.127.1934’,‘1996-06-14’,‘ST_CLERK’,3300.00,NULL,122,50),(134,‘Michael’,‘Rogers’,‘MROGERS’,‘650.127.1834’,‘1998-08-26’,‘ST_CLERK’,2900.00,NULL,122,50),(135,‘Ki’,‘Gee’,‘KGEE’,‘650.127.1734’,‘1999-12-12’,‘ST_CLERK’,2400.00,NULL,122,50),(136,‘Hazel’,‘Philtanker’,‘HPHILTAN’,‘650.127.1634’,‘2000-02-06’,‘ST_CLERK’,2200.00,NULL,122,50),(137,‘Renske’,‘Ladwig’,‘RLADWIG’,‘650.121.1234’,‘1995-07-14’,‘ST_CLERK’,3600.00,NULL,123,50),(138,‘Stephen’,‘Stiles’,‘SSTILES’,‘650.121.2034’,‘1997-10-26’,‘ST_CLERK’,3200.00,NULL,123,50),(139,‘John’,‘Seo’,‘JSEO’,‘650.121.2019’,‘1998-02-12’,‘ST_CLERK’,2700.00,NULL,123,50),(140,‘Joshua’,‘Patel’,‘JPATEL’,‘650.121.1834’,‘1998-04-06’,‘ST_CLERK’,2500.00,NULL,123,50),(141,‘Trenna’,‘Rajs’,‘TRAJS’,‘650.121.8009’,‘1995-10-17’,‘ST_CLERK’,3500.00,NULL,124,50),(142,‘Curtis’,‘Davies’,‘CDAVIES’,‘650.121.2994’,‘1997-01-29’,‘ST_CLERK’,3100.00,NULL,124,50),(143,‘Randall’,‘Matos’,‘RMATOS’,‘650.121.2874’,‘1998-03-15’,‘ST_CLERK’,2600.00,NULL,124,50),(144,‘Peter’,‘Vargas’,‘PVARGAS’,‘650.121.2004’,‘1998-07-09’,‘ST_CLERK’,2500.00,NULL,124,50),(145,‘John’,‘Russell’,‘JRUSSEL’,‘011.44.1344.429268’,‘1996-10-01’,‘SA_MAN’,14000.00,0.40,100,80),(146,‘Karen’,‘Partners’,‘KPARTNER’,‘011.44.1344.467268’,‘1997-01-05’,‘SA_MAN’,13500.00,0.30,100,80),(147,‘Alberto’,‘Errazuriz’,‘AERRAZUR’,‘011.44.1344.429278’,‘1997-03-10’,‘SA_MAN’,12000.00,0.30,100,80),(148,‘Gerald’,‘Cambrault’,‘GCAMBRAU’,‘011.44.1344.619268’,‘1999-10-15’,‘SA_MAN’,11000.00,0.30,100,80),(149,‘Eleni’,‘Zlotkey’,‘EZLOTKEY’,‘011.44.1344.429018’,‘2000-01-29’,‘SA_MAN’,10500.00,0.20,100,80),(150,‘Peter’,‘Tucker’,‘PTUCKER’,‘011.44.1344.129268’,‘1997-01-30’,‘SA_REP’,10000.00,0.30,145,80),(151,‘David’,‘Bernstein’,‘DBERNSTE’,‘011.44.1344.345268’,‘1997-03-24’,‘SA_REP’,9500.00,0.25,145,80),(152,‘Peter’,‘Hall’,‘PHALL’,‘011.44.1344.478968’,‘1997-08-20’,‘SA_REP’,9000.00,0.25,145,80),(153,‘Christopher’,‘Olsen’,‘COLSEN’,‘011.44.1344.498718’,‘1998-03-30’,‘SA_REP’,8000.00,0.20,145,80),(154,‘Nanette’,‘Cambrault’,‘NCAMBRAU’,‘011.44.1344.987668’,‘1998-12-09’,‘SA_REP’,7500.00,0.20,145,80),(155,‘Oliver’,‘Tuvault’,‘OTUVAULT’,‘011.44.1344.486508’,‘1999-11-23’,‘SA_REP’,7000.00,0.15,145,80),(156,‘Janette’,‘King’,‘JKING’,‘011.44.1345.429268’,‘1996-01-30’,‘SA_REP’,10000.00,0.35,146,80),(157,‘Patrick’,‘Sully’,‘PSULLY’,‘011.44.1345.929268’,‘1996-03-04’,‘SA_REP’,9500.00,0.35,146,80),(158,‘Allan’,‘McEwen’,‘AMCEWEN’,‘011.44.1345.829268’,‘1996-08-01’,‘SA_REP’,9000.00,0.35,146,80),(159,‘Lindsey’,‘Smith’,‘LSMITH’,‘011.44.1345.729268’,‘1997-03-10’,‘SA_REP’,8000.00,0.30,146,80),(160,‘Louise’,‘Doran’,‘LDORAN’,‘011.44.1345.629268’,‘1997-12-15’,‘SA_REP’,7500.00,0.30,146,80),(161,‘Sarath’,‘Sewall’,‘SSEWALL’,‘011.44.1345.529268’,‘1998-11-03’,‘SA_REP’,7000.00,0.25,146,80),(162,‘Clara’,‘Vishney’,‘CVISHNEY’,‘011.44.1346.129268’,‘1997-11-11’,‘SA_REP’,10500.00,0.25,147,80),(163,‘Danielle’,‘Greene’,‘DGREENE’,‘011.44.1346.229268’,‘1999-03-19’,‘SA_REP’,9500.00,0.15,147,80),(164,‘Mattea’,‘Marvins’,‘MMARVINS’,‘011.44.1346.329268’,‘2000-01-24’,‘SA_REP’,7200.00,0.10,147,80),(165,‘David’,‘Lee’,‘DLEE’,‘011.44.1346.529268’,‘2000-02-23’,‘SA_REP’,6800.00,0.10,147,80),(166,‘Sundar’,‘Ande’,‘SANDE’,‘011.44.1346.629268’,‘2000-03-24’,‘SA_REP’,6400.00,0.10,147,80),(167,‘Amit’,‘Banda’,‘ABANDA’,‘011.44.1346.729268’,‘2000-04-21’,‘SA_REP’,6200.00,0.10,147,80),(168,‘Lisa’,‘Ozer’,‘LOZER’,‘011.44.1343.929268’,‘1997-03-11’,‘SA_REP’,11500.00,0.25,148,80),(169,‘Harrison’,‘Bloom’,‘HBLOOM’,‘011.44.1343.829268’,‘1998-03-23’,‘SA_REP’,10000.00,0.20,148,80),(170,‘Tayler’,‘Fox’,‘TFOX’,‘011.44.1343.729268’,‘1998-01-24’,‘SA_REP’,9600.00,0.20,148,80),(171,‘William’,‘Smith’,‘WSMITH’,‘011.44.1343.629268’,‘1999-02-23’,‘SA_REP’,7400.00,0.15,148,80),(172,‘Elizabeth’,‘Bates’,‘EBATES’,‘011.44.1343.529268’,‘1999-03-24’,‘SA_REP’,7300.00,0.15,148,80),(173,‘Sundita’,‘Kumar’,‘SKUMAR’,‘011.44.1343.329268’,‘2000-04-21’,‘SA_REP’,6100.00,0.10,148,80),(174,‘Ellen’,‘Abel’,‘EABEL’,‘011.44.1644.429267’,‘1996-05-11’,‘SA_REP’,11000.00,0.30,149,80),(175,‘Alyssa’,‘Hutton’,‘AHUTTON’,‘011.44.1644.429266’,‘1997-03-19’,‘SA_REP’,8800.00,0.25,149,80),(176,‘Jonathon’,‘Taylor’,‘JTAYLOR’,‘011.44.1644.429265’,‘1998-03-24’,‘SA_REP’,8600.00,0.20,149,80),(177,‘Jack’,‘Livingston’,‘JLIVINGS’,‘011.44.1644.429264’,‘1998-04-23’,‘SA_REP’,8400.00,0.20,149,80),(178,‘Kimberely’,‘Grant’,‘KGRANT’,‘011.44.1644.429263’,‘1999-05-24’,‘SA_REP’,7000.00,0.15,149,NULL),(179,‘Charles’,‘Johnson’,‘CJOHNSON’,‘011.44.1644.429262’,‘2000-01-04’,‘SA_REP’,6200.00,0.10,149,80),(180,‘Winston’,‘Taylor’,‘WTAYLOR’,‘650.507.9876’,‘1998-01-24’,‘SH_CLERK’,3200.00,NULL,120,50),(181,‘Jean’,‘Fleaur’,‘JFLEAUR’,‘650.507.9877’,‘1998-02-23’,‘SH_CLERK’,3100.00,NULL,120,50),(182,‘Martha’,‘Sullivan’,‘MSULLIVA’,‘650.507.9878’,‘1999-06-21’,‘SH_CLERK’,2500.00,NULL,120,50),(183,‘Girard’,‘Geoni’,‘GGEONI’,‘650.507.9879’,‘2000-02-03’,‘SH_CLERK’,2800.00,NULL,120,50),(184,‘Nandita’,‘Sarchand’,‘NSARCHAN’,‘650.509.1876’,‘1996-01-27’,‘SH_CLERK’,4200.00,NULL,121,50),(185,‘Alexis’,‘Bull’,‘ABULL’,‘650.509.2876’,‘1997-02-20’,‘SH_CLERK’,4100.00,NULL,121,50),(186,‘Julia’,‘Dellinger’,‘JDELLING’,‘650.509.3876’,‘1998-06-24’,‘SH_CLERK’,3400.00,NULL,121,50),(187,‘Anthony’,‘Cabrio’,‘ACABRIO’,‘650.509.4876’,‘1999-02-07’,‘SH_CLERK’,3000.00,NULL,121,50),(188,‘Kelly’,‘Chung’,‘KCHUNG’,‘650.505.1876’,‘1997-06-14’,‘SH_CLERK’,3800.00,NULL,122,50),(189,‘Jennifer’,‘Dilly’,‘JDILLY’,‘650.505.2876’,‘1997-08-13’,‘SH_CLERK’,3600.00,NULL,122,50),(190,‘Timothy’,‘Gates’,‘TGATES’,‘650.505.3876’,‘1998-07-11’,‘SH_CLERK’,2900.00,NULL,122,50),(191,‘Randall’,‘Perkins’,‘RPERKINS’,‘650.505.4876’,‘1999-12-19’,‘SH_CLERK’,2500.00,NULL,122,50),(192,‘Sarah’,‘Bell’,‘SBELL’,‘650.501.1876’,‘1996-02-04’,‘SH_CLERK’,4000.00,NULL,123,50),(193,‘Britney’,‘Everett’,‘BEVERETT’,‘650.501.2876’,‘1997-03-03’,‘SH_CLERK’,3900.00,NULL,123,50),(194,‘Samuel’,‘McCain’,‘SMCCAIN’,‘650.501.3876’,‘1998-07-01’,‘SH_CLERK’,3200.00,NULL,123,50),(195,‘Vance’,‘Jones’,‘VJONES’,‘650.501.4876’,‘1999-03-17’,‘SH_CLERK’,2800.00,NULL,123,50),(196,‘Alana’,‘Walsh’,‘AWALSH’,‘650.507.9811’,‘1998-04-24’,‘SH_CLERK’,3100.00,NULL,124,50),(197,‘Kevin’,‘Feeney’,‘KFEENEY’,‘650.507.9822’,‘1998-05-23’,‘SH_CLERK’,3000.00,NULL,124,50),(198,‘Donald’,‘OConnell’,‘DOCONNEL’,‘650.507.9833’,‘1999-06-21’,‘SH_CLERK’,2600.00,NULL,124,50),(199,‘Douglas’,‘Grant’,‘DGRANT’,‘650.507.9844’,‘2000-01-13’,‘SH_CLERK’,2600.00,NULL,124,50),(200,‘Jennifer’,‘Whalen’,‘JWHALEN’,‘515.123.4444’,‘1987-09-17’,‘AD_ASST’,4400.00,NULL,101,10),(201,‘Michael’,‘Hartstein’,‘MHARTSTE’,‘515.123.5555’,‘1996-02-17’,‘MK_MAN’,13000.00,NULL,100,20),(202,‘Pat’,‘Fay’,‘PFAY’,‘603.123.6666’,‘1997-08-17’,‘MK_REP’,6000.00,NULL,201,20),(203,‘Susan’,‘Mavris’,‘SMAVRIS’,‘515.123.7777’,‘1994-06-07’,‘HR_REP’,6500.00,NULL,101,40),(204,‘Hermann’,‘Baer’,‘HBAER’,‘515.123.8888’,‘1994-06-07’,‘PR_REP’,10000.00,NULL,101,70),(205,‘Shelley’,‘Higgins’,‘SHIGGINS’,‘515.123.8080’,‘1994-06-07’,‘AC_MGR’,12000.00,NULL,101,110),(206,‘William’,‘Gietz’,‘WGIETZ’,‘515.123.8181’,‘1994-06-07’,‘AC_ACCOUNT’,8300.00,NULL,205,110);

CREATE TABLE job_grades (
grade_level varchar(3) DEFAULT NULL,
lowest_sal int(11) DEFAULT NULL,
highest_sal int(11) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
insert into job_grades(grade_level,lowest_sal,highest_sal) values (‘A’,1000,2999),(‘B’,3000,5999),(‘C’,6000,9999),(‘D’,10000,14999),(‘E’,15000,24999),(‘F’,25000,40000);

CREATE TABLE job_history (
employee_id int(6) NOT NULL,
start_date date NOT NULL,
end_date date NOT NULL,
job_id varchar(10) NOT NULL,
department_id int(4) DEFAULT NULL,
PRIMARY KEY (employee_id,start_date),
UNIQUE KEY jhist_emp_id_st_date_pk (employee_id,start_date),
KEY jhist_job_fk (job_id),
KEY jhist_dept_fk (department_id),
CONSTRAINT jhist_dept_fk FOREIGN KEY (department_id) REFERENCES departments (department_id),
CONSTRAINT jhist_emp_fk FOREIGN KEY (employee_id) REFERENCES employees (employee_id),
CONSTRAINT jhist_job_fk FOREIGN KEY (job_id) REFERENCES jobs (job_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

insert into job_history(employee_id,start_date,end_date,job_id,department_id) values (101,‘1989-09-21’,‘1993-10-27’,‘AC_ACCOUNT’,110),(101,‘1993-10-28’,‘1997-03-15’,‘AC_MGR’,110),(102,‘1993-01-13’,‘1998-07-24’,‘IT_PROG’,60),(114,‘1998-03-24’,‘1999-12-31’,‘ST_CLERK’,50),(122,‘1999-01-01’,‘1999-12-31’,‘ST_CLERK’,50),(176,‘1998-03-24’,‘1998-12-31’,‘SA_REP’,80),(176,‘1999-01-01’,‘1999-12-31’,‘SA_MAN’,80),(200,‘1987-09-17’,‘1993-06-17’,‘AD_ASST’,90),(200,‘1994-07-01’,‘1998-12-31’,‘AC_ACCOUNT’,90),(201,‘1996-02-17’,‘1999-12-19’,‘MK_REP’,20);

CREATE TABLE jobs (
job_id varchar(10) NOT NULL DEFAULT ‘’,
job_title varchar(35) NOT NULL,
min_salary int(6) DEFAULT NULL,
max_salary int(6) DEFAULT NULL,
PRIMARY KEY (job_id),
UNIQUE KEY job_id_pk (job_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

insert into jobs(job_id,job_title,min_salary,max_salary) values (‘AC_ACCOUNT’,‘Public Accountant’,4200,9000),(‘AC_MGR’,‘Accounting Manager’,8200,16000),(‘AD_ASST’,‘Administration Assistant’,3000,6000),(‘AD_PRES’,‘President’,20000,40000),(‘AD_VP’,‘Administration Vice President’,15000,30000),(‘FI_ACCOUNT’,‘Accountant’,4200,9000),(‘FI_MGR’,‘Finance Manager’,8200,16000),(‘HR_REP’,‘Human Resources Representative’,4000,9000),(‘IT_PROG’,‘Programmer’,4000,10000),(‘MK_MAN’,‘Marketing Manager’,9000,15000),(‘MK_REP’,‘Marketing Representative’,4000,9000),(‘PR_REP’,‘Public Relations Representative’,4500,10500),(‘PU_CLERK’,‘Purchasing Clerk’,2500,5500),(‘PU_MAN’,‘Purchasing Manager’,8000,15000),(‘SA_MAN’,‘Sales Manager’,10000,20000),(‘SA_REP’,‘Sales Representative’,6000,12000),(‘SH_CLERK’,‘Shipping Clerk’,2500,5500),(‘ST_CLERK’,‘Stock Clerk’,2000,5000),(‘ST_MAN’,‘Stock Manager’,5500,8500);

CREATE TABLE locations (
location_id int(4) NOT NULL DEFAULT ‘0’,
street_address varchar(40) DEFAULT NULL,
postal_code varchar(12) DEFAULT NULL,
city varchar(30) NOT NULL,
state_province varchar(25) DEFAULT NULL,
country_id char(2) DEFAULT NULL,
PRIMARY KEY (location_id),
UNIQUE KEY loc_id_pk (location_id),
KEY loc_c_id_fk (country_id),
CONSTRAINT loc_c_id_fk FOREIGN KEY (country_id) REFERENCES countries (country_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

insert into locations(location_id,street_address,postal_code,city,state_province,country_id) values (1000,‘1297 Via Cola di Rie’,‘00989’,‘Roma’,NULL,‘IT’),(1100,‘93091 Calle della Testa’,‘10934’,‘Venice’,NULL,‘IT’),(1200,‘2017 Shinjuku-ku’,‘1689’,‘Tokyo’,‘Tokyo Prefecture’,‘JP’),(1300,‘9450 Kamiya-cho’,‘6823’,‘Hiroshima’,NULL,‘JP’),(1400,‘2014 Jabberwocky Rd’,‘26192’,‘Southlake’,‘Texas’,‘US’),(1500,‘2011 Interiors Blvd’,‘99236’,‘South San Francisco’,‘California’,‘US’),(1600,‘2007 Zagora St’,‘50090’,‘South Brunswick’,‘New Jersey’,‘US’),(1700,‘2004 Charade Rd’,‘98199’,‘Seattle’,‘Washington’,‘US’),(1800,‘147 Spadina Ave’,‘M5V 2L7’,‘Toronto’,‘Ontario’,‘CA’),(1900,‘6092 Boxwood St’,‘YSW 9T2’,‘Whitehorse’,‘Yukon’,‘CA’),(2000,‘40-5-12 Laogianggen’,‘190518’,‘Beijing’,NULL,‘CN’),(2100,‘1298 Vileparle (E)’,‘490231’,‘Bombay’,‘Maharashtra’,‘IN’),(2200,‘12-98 Victoria Street’,‘2901’,‘Sydney’,‘New South Wales’,‘AU’),(2300,‘198 Clementi North’,‘540198’,‘Singapore’,NULL,‘SG’),(2400,‘8204 Arthur St’,NULL,‘London’,NULL,‘UK’),(2500,‘Magdalen Centre, The Oxford Science Park’,‘OX9 9ZB’,‘Oxford’,‘Oxford’,‘UK’),(2600,‘9702 Chester Road’,‘09629850293’,‘Stretford’,‘Manchester’,‘UK’),(2700,‘Schwanthalerstr. 7031’,‘80925’,‘Munich’,‘Bavaria’,‘DE’),(2800,'Rua Frei Caneca 1360 ',‘01307-002’,‘Sao Paulo’,‘Sao Paulo’,‘BR’),(2900,‘20 Rue des Corps-Saints’,‘1730’,‘Geneva’,‘Geneve’,‘CH’),(3000,‘Murtenstrasse 921’,‘3095’,‘Bern’,‘BE’,‘CH’),(3100,‘Pieter Breughelstraat 837’,‘3029SK’,‘Utrecht’,‘Utrecht’,‘NL’),(3200,‘Mariano Escobedo 9991’,‘11932’,‘Mexico City’,‘Distrito Federal,’,‘MX’);

CREATE TABLE order (
order_id int(11) DEFAULT NULL,
order_name varchar(15) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
insert into order(order_id,order_name) values (1,‘shkstart’),(2,‘tomcat’),(3,‘dubbo’);

CREATE TABLE regions (
region_id int(11) NOT NULL,
region_name varchar(25) DEFAULT NULL,
PRIMARY KEY (region_id),
UNIQUE KEY reg_id_pk (region_id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
insert into regions(region_id,region_name) values (1,‘Europe’),(2,‘Americas’),(3,‘Asia’),(4,‘Middle East and Africa’);

公用表表达式(或通用表表达式)简称为CTE(Common Table Expressions)。CTE是一个命名的临时结果集,作用范围是当前语句。CTE可以理解成一个可以复用的子查询,当然跟子查询还是有点区别的,CTE可以引用其他CTE,但子查询不能引用其他子查询。所以,可以考虑代替子查询。
依据语法结构和执行方式的不同,公用表表达式分为普通公用表表达式递归公用表表达式 2 种。

普通公用表表达式

普通公用表表达式的语法结构是:
WITH CTE名称
AS (子查询)
SELECT|DELETE|UPDATE 语句;

普通公用表表达式类似于子查询,不过,跟子查询不同的是,它可以被多次引用,而且可以被其他的普通公用表表达式所引用。
举例:查询员工所在的部门的详细信息。
mysql> SELECT * FROM departments
-> WHERE department_id IN (
-> SELECT DISTINCT department_id
-> FROM employees
-> );
±--------------±-----------------±-----------±------------+
| department_id | department_name | manager_id | location_id |
±--------------±-----------------±-----------±------------+
| 10 | Administration | 200 | 1700 |
| 20 | Marketing | 201 | 1800 |
| 30 | Purchasing | 114 | 1700 |
| 40 | Human Resources | 203 | 2400 |
| 50 | Shipping | 121 | 1500 |
| 60 | IT | 103 | 1400 |
| 70 | Public Relations | 204 | 2700 |
| 80 | Sales | 145 | 2500 |
| 90 | Executive | 100 | 1700 |
| 100 | Finance | 108 | 1700 |
| 110 | Accounting | 205 | 1700 |
±--------------±-----------------±-----------±------------+
11 rows in set (0.00 sec)

这个查询也可以用普通公用表表达式的方式完成:
mysql> WITH emp_dept_id
-> AS (SELECT DISTINCT department_id FROM employees)
-> SELECT *
-> FROM departments d JOIN emp_dept_id e
-> ON d.department_id = e.department_id;
±--------------±-----------------±-----------±------------±--------------+
| department_id | department_name | manager_id | location_id | department_id |
±--------------±-----------------±-----------±------------±--------------+
| 90 | Executive | 100 | 1700 | 90 |
| 60 | IT | 103 | 1400 | 60 |
| 100 | Finance | 108 | 1700 | 100 |
| 30 | Purchasing | 114 | 1700 | 30 |
| 50 | Shipping | 121 | 1500 | 50 |
| 80 | Sales | 145 | 2500 | 80 |
| 10 | Administration | 200 | 1700 | 10 |
| 20 | Marketing | 201 | 1800 | 20 |
| 40 | Human Resources | 203 | 2400 | 40 |
| 70 | Public Relations | 204 | 2700 | 70 |
| 110 | Accounting | 205 | 1700 | 110 |
±--------------±-----------------±-----------±------------±--------------+
11 rows in set (0.00 sec)
例子说明,公用表表达式可以起到子查询的作用。以后如果遇到需要使用子查询的场景,你可以在查询之前,先定义公用表表达式,然后在查询中用它来代替子查询。而且,跟子查询相比,公用表表达式有一个优点,就是定义过公用表表达式之后的查询,可以像一个表一样多次引用公用表表达式,而子查询则不能。

递归公用表表达式

递归公用表表达式也是一种公用表表达式,只不过,除了普通公用表表达式的特点以外,它还有自己的特点,就是可以调用自己。它的语法结构是:

WITH RECURSIVE
CTE名称 AS (子查询)
SELECT|DELETE|UPDATE 语句;

递归公用表表达式由 2 部分组成,分别是种子查询和递归查询,中间通过关键字 UNION [ALL]进行连接。这里的种子查询,意思就是获得递归的初始值。这个查询只会运行一次,以创建初始数据集,之后递归查询会一直执行,直到没有任何新的查询数据产生,递归返回。
**案例:**针对于我们常用的employees表,包含employee_id,last_name和manager_id三个字段。如果a是b的管理者,那么,我们可以把b叫做a的下属,如果同时b又是c的管理者,那么c就是b的下属,是a的下下属。
下面我们尝试用查询语句列出所有具有下下属身份的人员信息。
如果用我们之前学过的知识来解决,会比较复杂,至少要进行 4 次查询才能搞定:

  • 第一步,先找出初代管理者,就是不以任何别人为管理者的人,把结果存入临时表;
  • 第二步,找出所有以初代管理者为管理者的人,得到一个下属集,把结果存入临时表;
  • 第三步,找出所有以下属为管理者的人,得到一个下下属集,把结果存入临时表。
  • 第四步,找出所有以下下属为管理者的人,得到一个结果集。
    如果第四步的结果集为空,则计算结束,第三步的结果集就是我们需要的下下属集了,否则就必须继续进行第四步,一直到结果集为空为止。比如上面的这个数据表,就需要到第五步,才能得到空结果集。而且,最后还要进行第六步:把第三步和第四步的结果集合并,这样才能最终获得我们需要的结果集。
    如果用递归公用表表达式,就非常简单了。我介绍下具体的思路。
  • 用递归公用表表达式中的种子查询,找出初代管理者。字段 n 表示代次,初始值为 1,表示是第一代管理者。
  • 用递归公用表表达式中的递归查询,查出以这个递归公用表表达式中的人为管理者的人,并且代次的值加 1。直到没有人以这个递归公用表表达式中的人为管理者了,递归返回。
  • 在最后的查询中,选出所有代次大于等于 3 的人,他们肯定是第三代及以上代次的下属了,也就是下下属了。这样就得到了我们需要的结果集。
    这里看似也是 3 步,实际上是一个查询的 3 个部分,只需要执行一次就可以了。而且也不需要用临时表保存中间结果,比刚刚的方法简单多了。

代码实现:
WITH RECURSIVE cte
AS
(
SELECT employee_id,last_name,manager_id,1 AS n FROM employees WHERE employee_id = 100 – 种子查询,找到第一代领导
UNION ALL
SELECT a.employee_id,a.last_name,a.manager_id,n+1 FROM employees AS a JOIN cte
ON (a.manager_id = cte.employee_id) – 递归查询,找出以递归公用表表达式的人为领导的人
)
SELECT employee_id,last_name FROM cte WHERE n >= 3;

总之,递归公用表表达式对于查询一个有共同的根节点的树形结构数据,非常有用。它可以不受层级的限制,轻松查出所有节点的数据。如果用其他的查询方式,就比较复杂了。

小结:公用表表达式的作用是可以替代子查询,而且可以被多次引用。递归公用表表达式对查询有一个共同根节点的树形结构数据非常高效,可以轻松搞定其他查询方式难以处理的查询。

来源[《尚硅谷-宋红康:MySQL数据库》](https://www.bilibili.com/video/BV1iq4y1u7vj)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值