前言
我負責的有幾個系統隨著業務量的增長,儲存在MySQL中的資料日益劇增,我當時就想現在的業務方不講武德,搞偷襲,趁我沒反應過來把很多表,很快,很快啊都打到了億級別,我大意了,沒有閃,這就導致跟其Join的表的SQL變得很慢,對的應用介面的response time也變長了,影響了使用者體驗。
事後我找到業務方,我批評了他們跟他們說要講武德,連忙跟我道歉,這個事情才就此作罷,走的時候我對他們說下次不要這樣了,耗子尾汁,好好反思。
罵歸罵,事情還是得解決,時候我分析原因發現,發現有些表的資料量增長很快,對應SQL掃描了很多無效資料,導致SQL慢了下來,透過確認之後,這些大表都是一些流水、記錄、日誌型別資料,只需要保留1到3個月,此時需要對錶做資料清理實現瘦身,一般都會想到用insert + delete的方式去清理。
InnoDB儲存架構
從這張圖可以看到,InnoDB儲存結構主要包括兩部分:邏輯儲存結構和物理儲存結構。
邏輯上是由表空間tablespace —> 段segment或者inode —> 區Extent ——>資料頁Page構成,Innodb邏輯管理單位是segment,空間分配的最小單位是extent,每個segment都會從表空間FREE_PAGE中分配32個page,當這32個page不夠用時,會按照以下原則進行擴充套件:如果當前小於1個extent,則擴充套件到1個extent;當表空間小於32MB時,每次擴充套件一個extent;表空間大於32MB,每次擴充套件4個extent。
物理上主要由系統使用者資料檔案,日誌檔案組成,資料檔案主要儲存MySQL字典資料和使用者資料,日誌檔案記錄的是data page的變更記錄,用於MySQL Crash時的恢復。
Innodb表空間
InnoDB儲存包括三類表空間:系統表空間,使用者表空間,Undo表空間。
系統表空間:主要儲存MySQL內部的資料字典資料,如information_schema下的資料。
使用者表空間:當開啟innodb_file_per_table=1時,資料表從系統表空間獨立出來儲存在以table_name.ibd命令的資料檔案中,結構資訊儲存在table_name.frm檔案中。
Undo表空間:儲存Undo資訊,如快照一致讀和flashback都是利用undo資訊。
從MySQL 8.0開始允許使用者自定義表空間,具體語法如下:
這樣的好處是可以做到資料的冷熱分離,分別用HDD和SSD來儲存,既能實現資料的高效訪問,又能節約成本,比如可以新增兩塊500G硬碟,經過建立卷組vg,劃分邏輯卷lv,建立資料目錄並mount相應的lv,假設劃分的兩個目錄分別是/hot_data 和 /cold_data。
這樣就可以將核心的業務表如使用者表,訂單表儲存在高效能SSD盤上,一些日誌,流水錶儲存在普通的HDD上,主要的操作步驟如下:
Innodb儲存分佈
建立空表檢視空間變化
設定引數innodb_file_per_table=1時,建立表時會自動建立一個segment,同時分配一個extent,包含32個data page的來儲存資料,這樣建立的空表預設大小就是96KB,extent使用完之後會申請64個連線頁,這樣對於一些小表,或者undo segment,可以在開始時申請較少的空間,節省磁碟容量的開銷。
插入資料後的空間變化
delete資料後的空間變化
MySQL內部不會真正刪除空間,而且做標記刪除,即將delflag:N修改為delflag:Y,commit之後會會被purge進入刪除連結串列,如果下一次insert更大的記錄,delete之後的空間不會被重用,如果插入的記錄小於等於delete的記錄空會被重用,這塊內容可以透過知數堂的innblock工具進行分析。
Innodb中的碎片
碎片的產生
我們知道資料儲存在檔案系統上的,總是不能100%利用分配給它的物理空間,刪除資料會在頁面上留下一些”空洞”,或者隨機寫入(聚集索引非線性增加)會導致頁分裂,頁分裂導致頁面的利用空間少於50%,另外對錶進行增刪改會引起對應的二級索引值的隨機的增刪改,也會導致索引結構中的資料頁面上留下一些"空洞",雖然這些空洞有可能會被重複利用,但終究會導致部分物理空間未被使用,也就是碎片。
同時,即便是設定了填充因子為100%,Innodb也會主動留下page頁面1/16的空間作為預留使用(An innodb_fill_factor setting of 100 leaves 1/16 of the space in clustered index pages free for future index growth)防止update帶來的行溢位。
其中data_free是分配了未使用的位元組數,並不能說明完全是碎片空間。
碎片的回收
對於InnoDB的表,可以透過以下命令來回收碎片,釋放空間,這個是隨機讀IO操作,會比較耗時,也會阻塞表上正常的DML執行,同時需要佔用額外更多的磁碟空間,對於RDS來說,可能會導致磁碟空間瞬間爆滿,例項瞬間被鎖定,應用無法做DML操作,所以禁止在線上環境去執行。
delete對SQL的影響
#插入100W資料
mysql> call insert_user_data(1000000);
Query OK, 0 rows affected (35.99 sec)
#新增相關索引
mysql> alter table user add index idx_name(name), add index idx_phone(phone);
Query OK, 0 rows affected (6.00 sec)
Records: 0 Duplicates: 0 Warnings: 0
#表上索引統計資訊
mysql> show index from user;
+-------+------------+-----------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment |
+-------+------------+-----------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| user | 0 | PRIMARY | 1 | id | A | 996757 | NULL | NULL | | BTREE | | |
| user | 1 | idx_name | 1 | name | A | 996757 | NULL | NULL | | BTREE | | |
| user | 1 | idx_phone | 1 | phone | A | 2 | NULL | NULL | | BTREE | | |
+-------+------------+-----------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
3 rows in set (0.00 sec)
#重置狀態變數計數
mysql> flush status;
Query OK, 0 rows affected (0.00 sec)
#執行SQL語句
mysql> select id, age ,phone from user where name like 'lyn12%';
+--------+-----+-------------+
| id | age | phone |
+--------+-----+-------------+
| 124 | 3 | 15240540354 |
| 1231 | 30 | 15240540354 |
| 12301 | 60 | 15240540354 |
.............................
| 129998 | 37 | 15240540354 |
| 129999 | 38 | 15240540354 |
| 130000 | 39 | 15240540354 |
+--------+-----+-------------+
11111 rows in set (0.03 sec)
mysql> explain select id, age ,phone from user where name like 'lyn12%';
+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+
| 1 | SIMPLE | user | range | idx_name | idx_name | 82 | NULL | 22226 | Using index condition |
+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+
1 row in set (0.00 sec)
#檢視相關狀態呢變數
mysql> select * from information_schema.session_status where variable_name in('Last_query_cost','Handler_read_next','Innodb_pages_read','Innodb_data_reads','Innodb_pages_read');
+-------------------+----------------+
| VARIABLE_NAME | VARIABLE_VALUE |
+-------------------+----------------+
| HANDLER_READ_NEXT | 11111 | #請求讀的行數
| INNODB_DATA_READS | 7868409 | #資料物理讀的總數
| INNODB_PAGES_READ | 7855239 | #邏輯讀的總數
| LAST_QUERY_COST | 10.499000 | #SQL語句的成本COST,主要包括IO_COST和CPU_COST。
+-------------------+----------------+
4 rows in set (0.00 sec)
mysql> delete from user limit 500000;
Query OK, 500000 rows affected (3.70 sec)
#分析表統計資訊
mysql> analyze table user;
+-----------+---------+----------+----------+
| Table | Op | Msg_type | Msg_text |
+-----------+---------+----------+----------+
| test.user | analyze | status | OK |
+-----------+---------+----------+----------+
1 row in set (0.01 sec)
#重置狀態變數計數
mysql> flush status;
Query OK, 0 rows affected (0.01 sec)
mysql> select id, age ,phone from user where name like 'lyn12%';
Empty set (0.05 sec)
mysql> explain select id, age ,phone from user where name like 'lyn12%';
+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+
| 1 | SIMPLE | user | range | idx_name | idx_name | 82 | NULL | 22226 | Using index condition |
+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+
1 row in set (0.00 sec)
mysql> select * from information_schema.session_status where variable_name in('Last_query_cost','Handler_read_next','Innodb_pages_read','Innodb_data_reads','Innodb_pages_read');
+-------------------+----------------+
| VARIABLE_NAME | VARIABLE_VALUE |
+-------------------+----------------+
| HANDLER_READ_NEXT | 0 |
| INNODB_DATA_READS | 7868409 |
| INNODB_PAGES_READ | 7855239 |
| LAST_QUERY_COST | 10.499000 |
+-------------------+----------------+
4 rows in set (0.00 sec)
結果統計分析
delete最佳化建議
控制業務賬號許可權
對於一個大的系統來說,需要根據業務特點去拆分子系統,每個子系統可以看做是一個service,例如美團APP,上面有很多服務,核心的服務有使用者服務user-service,搜尋服務search-service,商品product-service,位置服務location-service,價格服務price-service等。每個服務對應一個數據庫,為該資料庫建立單獨賬號,同時只授予DML許可權且沒有delete許可權,同時禁止跨庫訪問。
在MySQL資料庫建模規範中有4個公共欄位,基本上每個表必須有的,同時在create_time列要建立索引,有兩方面的好處:
一些查詢業務場景都會有一個預設的時間段,比如7天或者一個月,都是透過create_time去過濾,走索引掃描更快;一些核心的業務表需要以T +1的方式抽取資料倉庫中,比如每天晚上00:30抽取前一天的資料,都是透過create_time過濾的。資料歸檔方式
通用資料歸檔方法
#1. 建立歸檔表,一般在原表名後面新增_bak。
CREATE TABLE `ota_order_bak` (
`id` bigint(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵',
`order_id` varchar(255) DEFAULT NULL COMMENT '訂單id',
`ota_id` varchar(255) DEFAULT NULL COMMENT 'ota',
`check_in_date` varchar(255) DEFAULT NULL COMMENT '入住日期',
`check_out_date` varchar(255) DEFAULT NULL COMMENT '離店日期',
`hotel_id` varchar(255) DEFAULT NULL COMMENT '酒店ID',
`guest_name` varchar(255) DEFAULT NULL COMMENT '顧客',
`purcharse_time` timestamp NULL DEFAULT NULL COMMENT '購買時間',
`create_time` datetime DEFAULT NULL,
`update_time` datetime DEFAULT NULL,
`create_user` varchar(255) DEFAULT NULL,
`update_user` varchar(255) DEFAULT NULL,
`hotel_name` varchar(255) DEFAULT NULL,
`price` decimal(10,0) DEFAULT NULL,
`remark` longtext,
PRIMARY KEY (`id`),
KEY `IDX_order_id` (`order_id`) USING BTREE,
KEY `hotel_name` (`hotel_name`) USING BTREE,
KEY `ota_id` (`ota_id`) USING BTREE,
KEY `IDX_purcharse_time` (`purcharse_time`) USING BTREE,
KEY `IDX_create_time` (`create_time`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8
PARTITION BY RANGE (to_days(create_time)) (
PARTITION p201808 VALUES LESS THAN (to_days('2018-09-01')),
PARTITION p201809 VALUES LESS THAN (to_days('2018-10-01')),
PARTITION p201810 VALUES LESS THAN (to_days('2018-11-01')),
PARTITION p201811 VALUES LESS THAN (to_days('2018-12-01')),
PARTITION p201812 VALUES LESS THAN (to_days('2019-01-01')),
PARTITION p201901 VALUES LESS THAN (to_days('2019-02-01')),
PARTITION p201902 VALUES LESS THAN (to_days('2019-03-01')),
PARTITION p201903 VALUES LESS THAN (to_days('2019-04-01')),
PARTITION p201904 VALUES LESS THAN (to_days('2019-05-01')),
PARTITION p201905 VALUES LESS THAN (to_days('2019-06-01')),
PARTITION p201906 VALUES LESS THAN (to_days('2019-07-01')),
PARTITION p201907 VALUES LESS THAN (to_days('2019-08-01')),
PARTITION p201908 VALUES LESS THAN (to_days('2019-09-01')),
PARTITION p201909 VALUES LESS THAN (to_days('2019-10-01')),
PARTITION p201910 VALUES LESS THAN (to_days('2019-11-01')),
PARTITION p201911 VALUES LESS THAN (to_days('2019-12-01')),
PARTITION p201912 VALUES LESS THAN (to_days('2020-01-01')));
#2. 插入原表中無效的資料(需要跟開發同學確認資料保留範圍)
create table tbl_p201808 as select * from ota_order where create_time between '2018-08-01 00:00:00' and '2018-08-31 23:59:59';
#3. 跟歸檔表分割槽做分割槽交換
alter table ota_order_bak exchange partition p201808 with table tbl_p201808;
delete from ota_order where create_time between '2018-08-01 00:00:00' and '2018-08-31 23:59:59' limit 3000;
最佳化後的歸檔方式
#1. 建立中間表
CREATE TABLE `ota_order_2020` (........) ENGINE=InnoDB DEFAULT CHARSET=utf8
PARTITION BY RANGE (to_days(create_time)) (
PARTITION p201808 VALUES LESS THAN (to_days('2018-09-01')),
PARTITION p201809 VALUES LESS THAN (to_days('2018-10-01')),
PARTITION p201810 VALUES LESS THAN (to_days('2018-11-01')),
PARTITION p201811 VALUES LESS THAN (to_days('2018-12-01')),
PARTITION p201812 VALUES LESS THAN (to_days('2019-01-01')),
PARTITION p201901 VALUES LESS THAN (to_days('2019-02-01')),
PARTITION p201902 VALUES LESS THAN (to_days('2019-03-01')),
PARTITION p201903 VALUES LESS THAN (to_days('2019-04-01')),
PARTITION p201904 VALUES LESS THAN (to_days('2019-05-01')),
PARTITION p201905 VALUES LESS THAN (to_days('2019-06-01')),
PARTITION p201906 VALUES LESS THAN (to_days('2019-07-01')),
PARTITION p201907 VALUES LESS THAN (to_days('2019-08-01')),
PARTITION p201908 VALUES LESS THAN (to_days('2019-09-01')),
PARTITION p201909 VALUES LESS THAN (to_days('2019-10-01')),
PARTITION p201910 VALUES LESS THAN (to_days('2019-11-01')),
PARTITION p201911 VALUES LESS THAN (to_days('2019-12-01')),
PARTITION p201912 VALUES LESS THAN (to_days('2020-01-01')));
#2. 插入原表中有效的資料,如果資料量在100W左右可以在業務低峰期直接插入,如果比較大,建議採用dataX來做,可以控制頻率和大小,之前我這邊用Go封裝了dataX可以實現自動生成json檔案,自定義大小去執行。
insert into ota_order_2020 select * from ota_order where create_time between '2020-08-01 00:00:00' and '2020-08-31 23:59:59';
#3. 表重新命名
alter table ota_order rename to ota_order_bak;
alter table ota_order_2020 rename to ota_order;
#4. 插入差異資料
insert into ota_order select * from ota_order_bak a where not exists (select 1 from ota_order b where a.id = b.id);
#5. ota_order_bak改造成分割槽表,如果表比較大不建議直接改造,可以先建立好分割槽表,透過dataX把匯入進去即可。
#6. 後續的歸檔方法
#建立中間普遍表
create table ota_order_mid like ota_order;
#交換原表無效資料分割槽到普通表
alter table ota_order exchange partition p201808 with table ota_order_mid;
##交換普通表資料到歸檔表的相應分割槽
alter table ota_order_bak exchange partition p201808 with table ota_order_mid;
總結
同時在碎片回收時,會耗用大量的CPU,磁碟空間,影響表上正常的DML操作。
另外一個比較好的方案採用Clickhouse,對有生命週期的資料表可以使用Clickhouse儲存,利用其TTL特性實現無效資料自動清理。
作者丨三太子敖丙