後端開發中為了防止一次性加載太多數據導致內存、磁碟IO都開銷過大,經常需要分頁展示,這個時候就需要用到MySQL的LIMIT關鍵字。但你以為LIMIT分頁就萬事大吉了麼,Too young,too simple啊,LIMIT在數據量大的時候極可能造成的一個問題就是深度分頁。
這裡我以顯示電商訂單詳情為背景舉個例子,新建表如下:
CREATE TABLE `cps_user_order_detail` ( `id` bigint(20) unsigned NOT NULL AUTO_INCREMENT COMMENT '主鍵', `user_id` varchar(32) NOT NULL DEFAULT '' COMMENT '用戶ID', `order_id` bigint(20) DEFAULT NULL COMMENT '訂單id', `sku_id` bigint(20) unsigned NOT NULL COMMENT '商品ID', `order_time` datetime DEFAULT NULL COMMENT '下單時間,格式yyyy-MM-dd HH:mm:ss', PRIMARY KEY (`id`), KEY `idx_time_user` (`order_time`,`user_id`) USING BTREE) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='用戶訂單詳情';
然後手動向表裡插入120W條數據。
現在有個需求:分頁展示用戶的訂單詳情,按照下單時間倒序。
表結構精簡了,需求也簡單。於是譁譁譁的寫完代碼,提測上線了。早期運行一切正常,可隨著訂單量的不斷增大,發現系統越發的緩慢,還時不時報出幾個慢查詢。
這個時候你就該想到是LIMIT偏移的問題了,沒錯,不是你的SQL不夠優美,就是MySQL自身的機制。
這裡我就簡單以兩條SQL為例,如下圖,分別是從100和100W的位置偏移分頁,可以看到時間相差很大。這還不算其它數據運算和處理的時間,單一條SQL的查詢就耗時一秒以上,在對用戶提供的功能裡這是不能容忍的(電商裡經常要求一個接口的RT不超過200ms)。這裡我們再看下執行計劃,如下圖所示:
在此先介紹一下執行計劃Extra列可能出現的值及含義:
Using where:表示優化器需要通過索引回表查詢數據。Using index:即覆蓋索引,表示直接訪問索引就足夠獲取到所需要的數據,不需要通過索引回表,通常是通過將待查詢欄位建立聯合索引實現。Using index condition:在5.6版本後加入的新特性,即大名鼎鼎的索引下推,是MySQL關於減少回表次數的重大優化。Using filesort:文件排序,這個一般在ORDER BY時候,數據量過大,MySQL會將所有數據召回內存中排序,比較消耗資源。再看看上圖,同樣的語句,只因為偏移量不同,就造成了執行計劃的千差萬別(且容我小小的誇張一下)。第一條語句LIMIT 100,6type列的值是range,表示範圍掃描,性能比ref差一個級別,但是也算走了索引,並且還應用了索引下推:就是說在WHERE之後的下單時間刪選走了索引,並且之後的ORDER BY也是根據索引下推優化,在執行WHERE條件篩選時同步進行的(沒有回表)。
優化
而第二條語句LIMIT 1000000,6壓根就沒走索引,type列的值是ALL,顯然是全表掃描。並且Extra列欄位裡的Using where表示發生了回表,Using filesort表示ORDER BY時發生了文件排序。所以這裡慢在了兩點:一是文件排序耗時過大,二是根據條件篩選了相關的數據之後,需要根據偏移量回表獲取全部值。無論是上面的哪一點,都是LIMIT偏移量過大導致的,所以實際開發環境經常遇到非統計表量級不得超過一百萬的要求。
原因分析完了,那麼LIMIT深度分頁在實際開發中怎麼優化呢?這裡少俠給兩點方案。
一是通過主鍵索引優化。什麼意思呢?就是把上面的語句修改成:SELECT * FROM cps_user_order_detail d WHERE d.id > #{maxId} AND d.order_time>'2020-8-5 00:00:00' ORDER BY d.order_time LIMIT 6;如上代碼所示,同樣也是分頁,但是有個maxId的限制條件,這個是什麼意思呢,maxId就是上一頁中的最大主鍵Id。所以採用此方式的前提:1)主鍵必須自增不能是UUID並且前端除了傳基本分頁參數pageNo,pageSize外,還必須把每次上一頁的最大Id帶過來,2)該方式不支持隨機跳頁,也就是說只能上下翻頁。如下圖所示是某知名電商中的實際頁面。
二是通過Elastic Search搜尋引擎(基於倒排索引),實際上類似於淘寶這樣的電商基本上都是把所有商品放進ES搜尋引擎裡的(那麼海量的數據,放進MySQL是不可能的,放進Redis也不現實)。但即使用了ES搜尋引擎,也還是有可能發生深度分頁的問題的,這時怎麼辦呢?答案是通過遊標scroll。關於此點這裡不做深入,感興趣的可以做研究。
小結
寫這篇博客是因為前段時間在開發中真實經歷到了,並且之前在字節面試中確實也和面試官探討了一番。知道LIMIT的限制以及優化,在面試中能提到是加分項,不能說到MySQL優化就是建索引,調整SQL(實際上在真實開發中這兩種優化方案的成效微乎其微)。畢竟MySQL優化那麼牛X的話,就不會有那麼多中間件產生了。
點擊左下角閱讀原文,到 SegmentFault 思否社區 和文章作者展開更多互動和交流。