MySQL數據量太大,日常卡死!想跑路了

2020-10-03 Java技術那些事

問題概述

使用阿里雲rds for MySQL資料庫(就是MySQL5.6版本),有個用戶上網記錄表6個月的數據量近2000萬,保留最近一年的數據量達到4000萬,查詢速度極慢,日常卡死。嚴重影響業務。

問題前提:老系統,當時設計系統的人大概是大學沒畢業,表設計和sql語句寫的不僅僅是垃圾,簡直無法直視。原開發人員都已離職,到我來維護,這就是傳說中的維護不了就跑路,然後我就是掉坑的那個!!!

我嘗試解決該問題,so,有個這個日誌。

方案概述

方案一:優化現有mysql資料庫。

優點:不影響現有業務,源程序不需要修改代碼,成本最低。

缺點:有優化瓶頸,數據量過億就玩完了。

方案二:升級資料庫類型,換一種100%兼容mysql的資料庫。

優點:不影響現有業務,源程序不需要修改代碼,你幾乎不需要做任何操作就能提升資料庫性能。

缺點:多花錢

方案三:一步到位,大數據解決方案,更換newsql/nosql資料庫。

優點:擴展性強,成本低,沒有數據容量瓶頸

缺點:需要修改源程序代碼

以上三種方案,按順序使用即可,數據量在億級別以下的沒必要換nosql,開發成本太高。三種方案我都試了一遍,而且都形成了落地解決方案。該過程心中慰問跑路的那幾個開發者一萬遍 :)

方案一詳細說明:優化現有mysql資料庫

跟阿里雲資料庫大佬電話溝通 and Google解決方案 and 問群裡大佬,總結如下(都是精華):

1.資料庫設計和表創建時就要考慮性能

2.sql的編寫需要注意優化

3.分區

4.分表

5.分庫


1.資料庫設計和表創建時就要考慮性能

mysql資料庫本身高度靈活,造成性能不足,嚴重依賴開發人員能力。也就是說開發人員能力高,則mysql性能高。這也是很多關係型資料庫的通病,所以公司的dba通常工資巨高。

設計表時要注意:

1.表欄位避免null值出現,null值很難查詢優化且佔用額外的索引空間,推薦默認數字0代替null。

2.儘量使用INT而非BIGINT,如果非負則加上UNSIGNED(這樣數值容量會擴大一倍),當然能使用TINYINT、SMALLINT、MEDIUM_INT更好。

3.使用枚舉或整數代替字符串類型

4.儘量使用TIMESTAMP而非DATETIME

5.單表不要有太多欄位,建議在20以內

6.用整型來存IP

索引

1.索引並不是越多越好,要根據查詢有針對性的創建,考慮在WHERE和ORDER BY命令上涉及的列建立索引,可根據EXPLAIN來查看是否用了索引還是全表掃描

2.應儘量避免在WHERE子句中對欄位進行NULL值判斷,否則將導致引擎放棄使用索引而進行全表掃描

3.值分布很稀少的欄位不適合建索引,例如"性別"這種只有兩三個值的欄位

4.字符欄位只建前綴索引

5.字符欄位最好不要做主鍵

6.不用外鍵,由程序保證約束

7.儘量不用UNIQUE,由程序保證約束

8.使用多列索引時注意順序和查詢條件保持一致,同時刪除不必要的單列索引

簡言之就是使用合適的數據類型,選擇合適的索引

選擇合適的數據類型

(1)使用可存下數據的最小的數據類型,整型 < date,time < char,varchar < blob

(2)使用簡單的數據類型,整型比字符處理開銷更小,因為字符串的比較更複雜。如,int類型存儲時間類型,bigint類型轉ip函數

(3)使用合理的欄位屬性長度,固定長度的表會更快。使用enum、char而不是varchar

(4)儘可能使用not null定義欄位

(5)儘量少用text,非用不可最好分表# 選擇合適的索引列


(1)查詢頻繁的列,在where,group by,order by,on從句中出現的列

(2)where條件中<,<=,=,>,>=,between,in,以及like 字符串+通配符(%)出現的列 (3)長度小的列,索引欄位越小越好,因為資料庫的存儲單位是頁,一頁中能存下的數據越多越好

(4)離散度大(不同的值多)的列,放在聯合索引前面。查看離散度,通過統計不同的列值來實現,count越大,離散程度越高:

原開發人員已經跑路,該表早已建立,我無法修改,故:該措辭無法執行,放棄!

2.sql的編寫需要注意優化

1.使用limit對查詢結果的記錄進行限定

2.避免select *,將需要查找的欄位列出來

3.使用連接(join)來代替子查詢

4.拆分大的delete或insert語句

5.可通過開啟慢查詢日誌來找出較慢的SQL

6.不做列運算:SELECT id WHERE age + 1 = 10,任何對列的操作都將導致表掃描,它包括資料庫教程函數、計算表達式等等,查詢時要儘可能將操作移至等號右邊

7.sql語句儘可能簡單:一條sql只能在一個cpu運算;大語句拆小語句,減少鎖時間;一條大sql可以堵死整個庫

8.OR改寫成IN:OR的效率是n級別,IN的效率是log(n)級別,in的個數建議控制在200以內

9.不用函數和觸發器,在應用程式實現

10.避免%xxx式查詢

11.少用JOIN

12.使用同類型進行比較,比如用'123'和'123'比,123和123比

13.儘量避免在WHERE子句中使用!=或<>操作符,否則將引擎放棄使用索引而進行全表掃描

14.對於連續數值,使用BETWEEN不用IN:SELECT id FROM t WHERE num BETWEEN 1 AND 5

15.列表數據不要拿全表,要使用LIMIT來分頁,每頁數量也不要太大 「原開發人員已經跑路,程序已經完成上線,我無法修改sql,故:該措辭無法執行,放棄!

引擎

引擎 目前廣泛使用的是MyISAM和InnoDB兩種引擎: MyISAM MyISAM引擎是MySQL 5.1及之前版本的默認引擎,它的特點是:

1.不支持行鎖,讀取時對需要讀到的所有表加鎖,寫入時則對表加排它鎖 2.不支持事務 3.不支持外鍵 4.不支持崩潰後的安全恢復 5.在表有讀取查詢的同時,支持往表中插入新紀錄 6.支持BLOB和TEXT的前500個字符索引,支持全文索引 7.支持延遲更新索引,極大提升寫入性能 8.對於不會進行修改的表,支持壓縮表,極大減少磁碟空間佔用

InnoDB

InnoDB在MySQL 5.5後成為默認索引,它的特點是:

1.支持行鎖,採用MVCC來支持高並發

2.支持事務

3.支持外鍵

4.支持崩潰後的安全恢復

5.不支持全文索引

總體來講,MyISAM適合SELECT密集型的表,而InnoDB適合INSERT和UPDATE密集型的表 「MyISAM速度可能超快,佔用存儲空間也小,但是程序要求事務支持,故InnoDB是必須的,故該方案無法執行,放棄!

3.分區

MySQL在5.1版引入的分區是一種簡單的水平拆分,用戶需要在建表的時候加上分區參數,對應用是透明的無需修改代碼

對用戶來說,分區表是一個獨立的邏輯表,但是底層由多個物理子表組成,實現分區的代碼實際上是通過對一組底層表的對象封裝,但對SQL層來說是一個完全封裝底層的黑盒子。MySQL實現分區的方式也意味著索引也是按照分區的子表定義,沒有全局索引

用戶的SQL語句是需要針對分區表做優化,SQL條件中要帶上分區條件的列,從而使查詢定位到少量的分區上,否則就會掃描全部分區,可以通過EXPLAIN PARTITIONS來查看某條SQL語句會落在哪些分區上,從而進行SQL優化,我測試,查詢時不帶分區條件的列,也會提高速度,故該措施值得一試。

分區的好處是:

1.可以讓單表存儲更多的數據

2.分區表的數據更容易維護,可以通過清除整個分區批量刪除大量數據,也可以增加新的分區來支持新插入的數據。另外,還可以對一個獨立分區進行優化、檢查、修復等操作

3.部分查詢能夠從查詢條件確定只落在少數分區上,速度會很快

4.分區表的數據還可以分布在不同的物理設備上,從而高效利用多個硬體設備

5.可以使用分區表來避免某些特殊瓶頸,例如InnoDB單個索引的互斥訪問、ext3文件系統的inode鎖競爭

6.可以備份和恢復單個分區

分區的限制和缺點:

1.一個表最多只能有1024個分區

2.如果分區欄位中有主鍵或者唯一索引的列,那麼所有主鍵列和唯一索引列都必須包含進來

3.分區表無法使用外鍵約束

4.NULL值會使分區過濾無效

5.所有分區必須使用相同的存儲引擎

分區的類型:

1.RANGE分區:基於屬於一個給定連續區間的列值,把多行分配給分區

2.LIST分區:類似於按RANGE分區,區別在於LIST分區是基於列值匹配一個離散值集合中的某個值來進行選擇

3.HASH分區:基於用戶定義的表達式的返回值來進行選擇的分區,該表達式使用將要插入到表中的這些行的列值進行計算。這個函數可以包含MySQL中有效的、產生非負整數值的任何表達式

4.KEY分區:類似於按HASH分區,區別在於KEY分區只支持計算一列或多列,且MySQL伺服器提供其自身的哈希函數。必須有一列或多列包含整數值

5.具體關於mysql分區的概念請自行google或查詢官方文檔,我這裡只是拋磚引玉了。 「我首先根據月份把上網記錄表RANGE分區了12份,查詢效率提高6倍左右,效果不明顯,故:換id為HASH分區,分了64個分區,查詢速度提升顯著。問題解決!

結果如下:PARTITION BY HASH (id)PARTITIONS 64select count() from readroom_website; --11901336行記錄/ 受影響行數: 0 已找到記錄: 1 警告: 0 持續時間 1 查詢: 5.734 sec. /select * from readroom_website where month(accesstime) =11 limit 10;/ 受影響行數: 0 已找到記錄: 10 警告: 0 持續時間 1 查詢: 0.719 sec. */

4.分表

分表就是把一張大表,按照如上過程都優化了,還是查詢卡死,那就把這個表分成多張表,把一次查詢分成多次查詢,然後把結果組合返回給用戶。

分表分為垂直拆分和水平拆分,通常以某個欄位做拆分項。比如以id欄位拆分為100張表:表名為 tableName_id%100

但:分表需要修改源程序代碼,會給開發帶來大量工作,極大的增加了開發成本,故:只適合在開發初期就考慮到了大量數據存在,做好了分表處理,不適合應用上線了再做修改,成本太高!!!而且選擇這個方案,都不如選擇我提供的第二第三個方案的成本低!故不建議採用。

5.分庫

把一個資料庫分成多個,建議做個讀寫分離就行了,真正的做分庫也會帶來大量的開發成本,得不償失!不推薦使用。

方案二詳細說明:升級資料庫,換一個100%兼容mysql的資料庫

mysql性能不行,那就換個。為保證源程序代碼不修改,保證現有業務平穩遷移,故需要換一個100%兼容mysql的資料庫。

開源選擇

1.tiDB https://github.com/pingcap/tidb

2.Cubrid https://www.cubrid.org/

3.開源資料庫會帶來大量的運維成本且其工業品質和MySQL尚有差距,有很多坑要踩,如果你公司要求必須自建資料庫,那麼選擇該類型產品。

雲數據選擇

1.阿里雲POLARDB

2.https://www.aliyun.com/product/polardb?spm=a2c4g.11174283.cloudEssentials.47.7a984b5cS7h4wH 「官方介紹語:POLARDB 是阿里雲自研的下一代關係型分布式雲原生資料庫,100%兼容MySQL,存儲容量最高可達 100T,性能最高提升至 MySQL 的 6 倍。POLARDB 既融合了商業資料庫穩定、可靠、高性能的特徵,又具有開源資料庫簡單、可擴展、持續迭代的優勢,而成本只需商用資料庫的 1/10。 我開通測試了一下,支持免費mysql的數據遷移,無操作成本,性能提升在10倍左右,價格跟rds相差不多,是個很好的備選解決方案!

1.阿里雲OcenanBase

2.淘寶使用的,扛得住雙十一,性能卓著,但是在公測中,我無法嘗試,但值得期待

3.阿里雲HybridDB for MySQL (原PetaData)

4.https://www.aliyun.com/product/petadata?spm=a2c4g.11174283.cloudEssentials.54.7a984b5cS7h4wH 「官方介紹:雲資料庫HybridDB for MySQL (原名PetaData)是同時支持海量數據在線事務(OLTP)和在線分析(OLAP)的HTAP(Hybrid Transaction/Analytical Processing)關係型資料庫。

我也測試了一下,是一個olap和oltp兼容的解決方案,但是價格太高,每小時高達10塊錢,用來做存儲太浪費了,適合存儲和分析一起用的業務。

1.騰訊雲DCDB

2.https://cloud.tencent.com/product/dcdb_for_tdsql 「官方介紹:DCDB又名TDSQL,一種兼容MySQL協議和語法,支持自動水平拆分的高性能分布式資料庫——即業務顯示為完整的邏輯表,數據卻均勻的拆分到多個分片中;每個分片默認採用主備架構,提供災備、恢復、監控、不停機擴容等全套解決方案,適用於TB或PB級的海量數據場景。 騰訊的我不喜歡用,不多說。原因是出了問題找不到人,線上問題無法解決頭疼!但是他價格便宜,適合超小公司,玩玩。

方案三詳細說明:去掉mysql,換大數據引擎處理數據

數據量過億了,沒得選了,只能上大數據了。

開源解決方案

hadoop家族。hbase/hive懟上就是了。但是有很高的運維成本,一般公司是玩不起的,沒十萬投入是不會有很好的產出的!

雲解決方案

這個就比較多了,也是一種未來趨勢,大數據由專業的公司提供專業的服務,小公司或個人購買服務,大數據就像水/電等公共設施一樣,存在於社會的方方面面。

國內做的最好的當屬阿里雲。

我選擇了阿里雲的MaxCompute配合DataWorks,使用超級舒服,按量付費,成本極低。

MaxCompute可以理解為開源的Hive,提供sql/mapreduce/ai算法/python腳本/shell腳本等方式操作數據,數據以表格的形式展現,以分布式方式存儲,採用定時任務和批處理的方式處理數據。DataWorks提供了一種工作流的方式管理你的數據處理任務和調度監控。

當然你也可以選擇阿里雲hbase等其他產品,我這裡主要是離線處理,故選擇MaxCompute,基本都是圖形界面操作,大概寫了300行sql,費用不超過100塊錢就解決了數據處理問題。

相關焦點

  • MySQL 數據量太大,日常卡死!想跑路了
    2000萬,保留最近一年的數據量達到4000萬,查詢速度極慢,日常卡死。原開發人員都已離職,到我來維護,這就是傳說中的維護不了就跑路,然後我就是掉坑的那個!!!我嘗試解決該問題,so,有個這個日誌。方案概述方案一:優化現有mysql資料庫。優點:不影響現有業務,源程序不需要修改代碼,成本最低。缺點:有優化瓶頸,數據量過億就玩完了。
  • 我想說:mysql的join 真的很弱
    可以把mysql當一個黑盒,使用角度來驗證這個結論) 驗證結論的時候,會有很多發現,各位往後看。 三、 實驗環境: vmware10+centos7.4+mysql5.7.22 ,centos7內存4.5G,4核,50G硬碟。mysql配置為2G,特別說明硬碟是SSD。
  • 三種 MySQL 大表優化方案
    2000萬,保留最近一年的數據量達到4000萬,查詢速度極慢,日常卡死。原開發人員都已離職,到我來維護,這就是傳說中的維護不了就跑路,然後我就是掉坑的那個!!!我嘗試解決該問題,so,有個這個日誌。方案概述方案一:優化現有mysql資料庫。優點:不影響現有業務,源程序不需要修改代碼,成本最低。
  • MySQL從刪庫到跑路:順豐高級工程師跑路被開除之後
    然後跑路了:根據郵件內容,事件詳情如下:在接到該變更需求後,按照操作流程要求,登陸生產資料庫跳轉機,通過navicat-mysql客戶端管理工具,連入SHIVA-OMCS的RUSS庫進行操作。但在操作過程中,該運維發現選錯了RUSS 資料庫,打算刪除執行的sql。
  • MySQL如何快速插入數據
    前言:日常學習和工作中,經常會遇到導數據的需求。比如數據遷移、數據恢復、新建從庫等,這些操作可能都會涉及大量數據的導入。有時候導入進度慢,電腦風扇狂轉真的很讓人崩潰,其實有些小技巧是可以讓導入更快速的,本篇文章筆者會談一談如何快速的導入數據。
  • Docker 安裝 Mysql 5.7
    背景阿里雲基礎版 RDS 最近因為大數據量查詢經常宕機(阿里雲工單回復是 OOM,讓升級高可用版本~),導致日常辦公軟體(Crowd,Jira,Confluence等)無法使用,所以在 ECS 搭建本地 Mysql。
  • 刪庫一定要跑路嗎?手把手教你MySQL數據恢復
    日常工作中,總會有因手抖、寫錯條件、寫錯表名、錯連生產庫造成的誤刪庫表和數據的事情發生但若剛好資料庫沒有打開這個表文件,那就只能跑路了。如果沒有開啟 binlog,那麼恢復數據後,從備份時間點開始的數據都沒了。如果 binlog 格式不為 row,那麼在誤操作數據後就沒有辦法做閃回操作,只能老老實實地走備份恢復流程。
  • 「刪庫跑路」使用Binlog日誌恢復誤刪的MySQL數據
    前言「刪庫跑路」是程式設計師經常談起的話題,今天,我就要教大家如何刪好了,回歸正題,這篇文章就是想讓大家放心,MySQL就算進行了誤刪操作,也基本都能夠搶救回來。尤其是大公司內,數據可不是你想刪就能刪掉的,有無數權限/備份阻攔著你。
  • Python爬取100G級別,2000K以上數據量,用mysql還是mongodb?
    一個是100G的數據量用MySQL和MongoDB在存讀取上有什麼區別,另一個是數據本身的結構和你要進行的應用來考慮使用哪種資料庫比較方便。100G的數據量 目前來看100G的數據量其實對MySQL和MongoDB在存放都沒有什麼壓力,如果你要經常讀取,那麼我建議你的MongoDB來做存儲。
  • 《伏天氏》:宗蟬一死,葉伏天跑路!
    宗蟬和寧華皆為七境完美人皇,不過寧華六階神輪比宗蟬五階神輪更甚一籌,就這樣,水痕就要把宗蟬寫死。沒辦法,宗蟬死了,葉伏天才有機會跑路。原本筆者以為,宗蟬生前已是望神闕的一面旗幟,存在的意義要比逝去意義重要,沒想到,只有宗蟬死了,葉伏天才能跑得了,宗蟬沒死,大傢伙還在苦戰。這樣看來,由始至終,宗蟬就只能存在東華域的歷史,埋葬其中。
  • 關於mysql的一些看法
    但是如果要自己來擼監控系統,又要在一定範圍內用起來,覆蓋到大部分場景,就是選擇 mysql, 原因就是學習成本低, 百分之 80 的人可以輕鬆搭建配置 mysql,並且都有自己熟悉的一套維護方法。而其他的比如 mongodb,pg 系的 timescale,influxdb 等可能更合適做這個事情, 但是有個重要的原因, 他需要使用者去多學習一項額外的技能, 而這項技能即使比 mysql 簡單也不一定能被認可, 這個是一種惰性, 就是不想學, 不想用, 我們自己或許可以突破,
  • MySQL-mysqldump備份資料庫
    前言資料庫很重要,沒有備份,只能跑路。所以還是做好備份吧!mysqldump備份1、備份命令格式:mysqldump -h主機名 -P埠 -u用戶名 -p密碼 --database 資料庫名 > 文件名.sql 例如: mysqldump -h 192.168.1.100 -p 3306 -uroot -ppassword --database
  • 技術分享 | 大數據量更新,回滾效率提升方法
    0 rows affected (0.00 sec)mysql> begin;Query OK, 0 rows affected (0.00 sec)mysql> use sbtest;Database changedmysql> update sbtest1 set k=k+1;
  • MySQL 優化案例 - select count-愛可生
    在 select count(*)的查詢過程中,只需要將二級索引讀取到內存緩衝區,只有幾十 MB 的數據量,所以速度會非常快。舉個形象的比喻,我們想知道一本書的頁數:走聚集索引:從第一頁翻到最後一頁,知道總頁數;走二級索引:通過目錄直接知道總頁數。五、驗證創建二級索引後,再次執行 SQL 及查看執行計劃。
  • Mysql Limit 字句優化
    總的來說性能主要由以下幾個條件決定:LIMIT遍歷數據量少, 性能高LIMIT通過索引實現篩選, 性能比較高LIMIT找到所需的數據就停止排序, 性能優於先完整排序再截取數據語句整體能被索引覆蓋, 不需要回表, 性能比較高下面分別舉例說明:普通SELECT + LIMIT這是最簡單的場景, 按照存儲順序遍歷所有數據, 直到遍歷到目標位置才停止.
  • mysqldump簡單備份
    本文介紹mysqldump簡單備份。設計備份策略對於DBA管理人員來講,制定備份策略是看似的是一件不太重要的事情。但在實際過程中需要根據數據量與磁碟空間做估算備份方式:全備、增量、時間、自動備份周期:根據數據量。每天備份,60G數據,一個小時內完成。
  • 關於mysql存儲引擎、管理和維護概述
    mysql的核心就是資料庫引擎。mysql5.7支持的存儲引擎有innoDB MyISAM Memory 可以通過show engines。InnoDB存儲引擎:1.InnoDB給mysql提供了具有提交,回滾,崩潰恢復的功能的事務能力的安全存儲引擎2.對處理巨大數據量的數據有良好的性能3.InnoDB存儲引擎支持外鍵的完整性約束4.InnoDB被用在眾多高性能大型資料庫站點上MyISAM存儲引擎:1.MyISAM
  • CentOS CPU佔用100%居高不下之mysql調優
    如下:1、top #使用top命令查看CPU佔用進程,確認mysql進程佔用CPU資源過大2、首先考慮磁碟佔用問題,清理日誌文件釋放空間df -h #查看磁碟空間佔用清理緩存的命令 echo 1 > /proc/sys/vm/drop_cachesecho 2 > /proc/sys/vm/drop_cachesecho 3 > /proc/sys/vm/drop_caches4、mysql
  • MYSQL的ibtmp1文件太大怎麼處理
    但是,不久前剛清理了一波數據,測試環境在沒做壓測的情況下不至於短短一個月不到就漲了200G數據,於是,我悄悄的進入數據目錄下,發現一個不尋常的點,ibtmp1 文件有192G ll -hibtmp1 -rw-r----- 1 mysql mysql 192G Aug 12 16:20 ibtmp12.
  • mysql怎麼處理大表在不停機的情況下增加欄位
    /bin/bash# gjcfor i in  {1..1000000000}# 訪問次數1000000000,按需調整即可do    id=$RANDOM#生成隨機數mysql -uroot -p'123456' --socket=/data/mysql3306/tmp/mysql.sock  -e "selecta.