好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > MySQL limit分頁大偏移量慢的原因及優化方案

MySQL limit分頁大偏移量慢的原因及優化方案

熱門標簽:湖南人工外呼系統多少錢 信陽穩定外呼系統運營商 廣東人工電話機器人 南通自動外呼系統軟件 石家莊電商外呼系統 申請外呼電話線路 芒果電話機器人自動化 日照旅游地圖標注 百度地圖圖標標注中心

在 MySQL 中通常我們使用 limit 來完成頁面上的分頁功能,但是當數據量達到一個很大的值之后,越往后翻頁,接口的響應速度就越慢。

本文主要討論 limit 分頁大偏移量慢的原因及優化方案,為了模擬這種情況,下面首先介紹表結構和執行的 SQL。

場景模擬

建表語句

user 表的結構比較簡單,id、sex 和 name,為了讓 SQL 的執行時間變化更加明顯,這里有9個姓名列。

CREATE TABLE `user` (
 `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵',
 `sex` tinyint(4) NULL DEFAULT NULL COMMENT '性別 0-男 1-女',
 `name1` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name2` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name3` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name4` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name5` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name6` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name7` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name8` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 `name9` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL COMMENT '姓名',
 PRIMARY KEY (`id`) USING BTREE,
 INDEX `sex`(`sex`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 9000001 CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;

數據填充

這里建立了一個存儲過程來進行數據的填充,一共9000000條數據,執行完函數后再執行一句SQL,修改性別字段。

ps:這個函數執行的挺久的,我運行了617.284秒。

CREATE DEFINER=`root`@`localhost` PROCEDURE `data`()
begin 
 declare i int; 
 set i=1; 
 while(i=9000000)do 
  insert into user values(i,0,i,i,i,i,i,i,i,i,i);
  set i=i+1; 
 end while;
end

-- 將id為偶數的user設置性別為1-女
update user set sex=1 where id%2=0;

SQL與執行時間

SQL 執行時間
select * from user where sex = 1 limit 100, 10; OK, Time: 0.005000s
select * from user where sex = 1 limit 1000, 10; OK, Time: 0.007000s
select * from user where sex = 1 limit 10000, 10; OK, Time: 0.016000s
select * from user where sex = 1 limit 100000, 10; OK, Time: 0.169000s
select * from user where sex = 1 limit 1000000, 10; OK, Time: 5.892000s
select * from user where sex = 1 limit 10000000, 10; OK, Time: 33.465000s

可以看到,limit 的偏移量越大,執行時間越長。

原因分析

首先來分析一下這句 SQL 執行的過程,就拿上面表格中的第一行來舉例。

由于 sex 列是索引列,MySQL會走 sex 這棵索引樹,命中 sex=1 的數據。

然后又由于非聚簇索引中存儲的是主鍵 id 的值,且查詢語句要求查詢所有列,所以這里會發生一個回表的情況,在命中 sex 索引樹中值為1的數據后,拿著它葉子節點上的值也就是主鍵 id 的值去主鍵索引樹上查詢這一行其他列(name、sex)的值,最后返回到結果集中,這樣第一行數據就查詢成功了。

最后這句 SQL 要求limit 100, 10,也就是查詢第101到110個數據,但是 MySQL 會查詢前110行,然后將前100行拋棄,最后結果集中就只剩下了第101到110行,執行結束。

小結一下,在上述的執行過程中,造成 limit 大偏移量執行時間變久的原因有:

  • 查詢所有列導致回表
  • limit a, b會查詢前a+b條數據,然后丟棄前a條數據

綜合上述兩個原因,MySQL 花費了大量時間在回表上,而其中a次回表的結果又不會出現在結果集中,這才導致查詢時間變得越來越長。

優化方案

覆蓋索引

既然無效的回表是導致查詢變慢的主要原因,那么優化方案就主要從減少回表次數方面入手,假設在limit a, b中我們首先得到了a+1到a+b條數據的id,然后再進行回表獲取其他列數據,那么就減少了a次回表操作,速度肯定會快上不少。

這里就涉及到覆蓋索引了,所謂的覆蓋索引就是從非主聚簇索引中就能查到的想要數據,而不需要通過回表從主鍵索引中查詢其他列,能夠顯著提升性能。

基于這樣的思路,優化方案就是先查詢得到主鍵id,然后再根據主鍵id查詢其他列數據,優化后的 SQL 以及執行時間如下表。

優化后的 SQL 執行時間
select * from user a join (select id from user where sex = 1 limit 100, 10) b on a.id=b.id; OK, Time: 0.000000s
select * from user a join (select id from user where sex = 1 limit 1000, 10) b on a.id=b.id; OK, Time: 0.00000s
select * from user a join (select id from user where sex = 1 limit 10000, 10) b on a.id=b.id; OK, Time: 0.002000s
select * from user a join (select id from user where sex = 1 limit 100000, 10) b on a.id=b.id; OK, Time: 0.015000s
select * from user a join (select id from user where sex = 1 limit 1000000, 10) b on a.id=b.id; OK, Time: 0.151000s
select * from user a join (select id from user where sex = 1 limit 10000000, 10) b on a.id=b.id; OK, Time: 1.161000s

果然,執行效率得到了顯著提升。

條件過濾

當然還有一種有缺陷的方法是基于排序做條件過濾。

比如像上面的示例 user 表,我要使用 limit 分頁得到1000001到1000010條數據,可以這樣寫 SQL:

select * from user where sex = 1 and id > (select id from user where sex = 1 limit 1000000, 1) limit 10;

但是使用這樣的方式優化是有條件的:主鍵id必須是有序的。在有序的條件下,也可以使用比如創建時間等其他字段來代替主鍵id,但是前提是這個字段是建立了索引的。

總之,使用條件過濾的方式來優化 limit 是有諸多限制的,一般還是推薦使用覆蓋索引的方式來優化。

小結

主要分析了 limit 分頁大偏移量慢的原因,同時也提出了響應的優化方案,推薦使用覆蓋索引的方式來優化 limit 分頁大偏移執行時間久的問題。

希望能幫助到大家。

以上就是MySQL limit分頁大偏移量慢的原因及優化方案的詳細內容,更多關于MySQL limit 分頁的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • MySQL查詢優化:LIMIT 1避免全表掃描提高查詢效率
  • 為什么MySQL分頁用limit會越來越慢
  • mysql優化之query_cache_limit參數說明
  • 詳解Mysql order by與limit混用陷阱
  • mysql分頁的limit參數簡單示例
  • Mysql排序和分頁(order by&limit)及存在的坑
  • MySQL limit使用方法以及超大分頁問題解決
  • mysql踩坑之limit與sum函數混合使用問題詳解
  • 如何提高MySQL Limit查詢性能的方法詳解
  • MySQL Limit性能優化及分頁數據性能優化詳解
  • 淺談mysql使用limit分頁優化方案的實現
  • MySQL中limit對查詢語句性能的影響

標簽:惠州 公主嶺 阿里 沈陽 天津 牡丹江 呼和浩特 合肥

巨人網絡通訊聲明:本文標題《MySQL limit分頁大偏移量慢的原因及優化方案》,本文關鍵詞  MySQL,limit,分頁,大,偏移量,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《MySQL limit分頁大偏移量慢的原因及優化方案》相關的同類信息!
  • 本頁收集關于MySQL limit分頁大偏移量慢的原因及優化方案的相關信息資訊供網民參考!
  • 推薦文章