首頁>技術>

前言

我負責的有幾個系統隨著業務量的增長,儲存在MySQL中的資料日益劇增,我當時就想現在的業務方不講武德,搞偷襲,趁我沒反應過來把很多表,很快,很快啊都打到了億級別,我大意了,沒有閃,這就導致跟其Join的表的SQL變得很慢,對的應用介面的response time也變長了,影響了使用者體驗。

事後我找到業務方,我批評了他們跟他們說要講武德,連忙跟我道歉,這個事情才就此作罷,走的時候我對他們說下次不要這樣了,耗子尾汁,好好反思。

罵歸罵,事情還是得解決,時候我分析原因發現,發現有些表的資料量增長很快,對應SQL掃描了很多無效資料,導致SQL慢了下來,透過確認之後,這些大表都是一些流水、記錄、日誌型別資料,只需要保留1到3個月,此時需要對錶做資料清理實現瘦身,一般都會想到用insert + delete的方式去清理。

InnoDB儲存架構

從這張圖可以看到,InnoDB儲存結構主要包括兩部分:邏輯儲存結構和物理儲存結構。

邏輯上是由表空間tablespace —> 段segment或者inode —> 區Extent ——>資料頁Page構成,Innodb邏輯管理單位是segment,空間分配的最小單位是extent,每個segment都會從表空間FREE_PAGE中分配32個page,當這32個page不夠用時,會按照以下原則進行擴充套件:如果當前小於1個extent,則擴充套件到1個extent;當表空間小於32MB時,每次擴充套件一個extent;表空間大於32MB,每次擴充套件4個extent。

物理上主要由系統使用者資料檔案,日誌檔案組成,資料檔案主要儲存MySQL字典資料和使用者資料,日誌檔案記錄的是data page的變更記錄,用於MySQL Crash時的恢復。

Innodb表空間

InnoDB儲存包括三類表空間:系統表空間,使用者表空間,Undo表空間。

系統表空間:主要儲存MySQL內部的資料字典資料,如information_schema下的資料。

使用者表空間:當開啟innodb_file_per_table=1時,資料表從系統表空間獨立出來儲存在以table_name.ibd命令的資料檔案中,結構資訊儲存在table_name.frm檔案中。

Undo表空間:儲存Undo資訊,如快照一致讀和flashback都是利用undo資訊。

從MySQL 8.0開始允許使用者自定義表空間,具體語法如下:

這樣的好處是可以做到資料的冷熱分離,分別用HDD和SSD來儲存,既能實現資料的高效訪問,又能節約成本,比如可以新增兩塊500G硬碟,經過建立卷組vg,劃分邏輯卷lv,建立資料目錄並mount相應的lv,假設劃分的兩個目錄分別是/hot_data 和 /cold_data。

這樣就可以將核心的業務表如使用者表,訂單表儲存在高效能SSD盤上,一些日誌,流水錶儲存在普通的HDD上,主要的操作步驟如下:

Innodb儲存分佈

建立空表檢視空間變化

設定引數innodb_file_per_table=1時,建立表時會自動建立一個segment,同時分配一個extent,包含32個data page的來儲存資料,這樣建立的空表預設大小就是96KB,extent使用完之後會申請64個連線頁,這樣對於一些小表,或者undo segment,可以在開始時申請較少的空間,節省磁碟容量的開銷。

插入資料後的空間變化

delete資料後的空間變化

MySQL內部不會真正刪除空間,而且做標記刪除,即將delflag:N修改為delflag:Y,commit之後會會被purge進入刪除連結串列,如果下一次insert更大的記錄,delete之後的空間不會被重用,如果插入的記錄小於等於delete的記錄空會被重用,這塊內容可以透過知數堂的innblock工具進行分析。

Innodb中的碎片

碎片的產生

我們知道資料儲存在檔案系統上的,總是不能100%利用分配給它的物理空間,刪除資料會在頁面上留下一些”空洞”,或者隨機寫入(聚集索引非線性增加)會導致頁分裂,頁分裂導致頁面的利用空間少於50%,另外對錶進行增刪改會引起對應的二級索引值的隨機的增刪改,也會導致索引結構中的資料頁面上留下一些"空洞",雖然這些空洞有可能會被重複利用,但終究會導致部分物理空間未被使用,也就是碎片。

同時,即便是設定了填充因子為100%,Innodb也會主動留下page頁面1/16的空間作為預留使用(An innodb_fill_factor setting of 100 leaves 1/16 of the space in clustered index pages free for future index growth)防止update帶來的行溢位。

其中data_free是分配了未使用的位元組數,並不能說明完全是碎片空間。

碎片的回收

對於InnoDB的表,可以透過以下命令來回收碎片,釋放空間,這個是隨機讀IO操作,會比較耗時,也會阻塞表上正常的DML執行,同時需要佔用額外更多的磁碟空間,對於RDS來說,可能會導致磁碟空間瞬間爆滿,例項瞬間被鎖定,應用無法做DML操作,所以禁止在線上環境去執行。

delete對SQL的影響

#插入100W資料

mysql> call insert_user_data(1000000);

Query OK, 0 rows affected (35.99 sec)

#新增相關索引

mysql> alter table user add index idx_name(name), add index idx_phone(phone);

Query OK, 0 rows affected (6.00 sec)

Records: 0 Duplicates: 0 Warnings: 0

#表上索引統計資訊

mysql> show index from user;

+-------+------------+-----------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+

| Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment |

+-------+------------+-----------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+

| user | 0 | PRIMARY | 1 | id | A | 996757 | NULL | NULL | | BTREE | | |

| user | 1 | idx_name | 1 | name | A | 996757 | NULL | NULL | | BTREE | | |

| user | 1 | idx_phone | 1 | phone | A | 2 | NULL | NULL | | BTREE | | |

+-------+------------+-----------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+

3 rows in set (0.00 sec)

#重置狀態變數計數

mysql> flush status;

Query OK, 0 rows affected (0.00 sec)

#執行SQL語句

mysql> select id, age ,phone from user where name like 'lyn12%';

+--------+-----+-------------+

| id | age | phone |

+--------+-----+-------------+

| 124 | 3 | 15240540354 |

| 1231 | 30 | 15240540354 |

| 12301 | 60 | 15240540354 |

.............................

| 129998 | 37 | 15240540354 |

| 129999 | 38 | 15240540354 |

| 130000 | 39 | 15240540354 |

+--------+-----+-------------+

11111 rows in set (0.03 sec)

mysql> explain select id, age ,phone from user where name like 'lyn12%';

+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+

| 1 | SIMPLE | user | range | idx_name | idx_name | 82 | NULL | 22226 | Using index condition |

+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+

1 row in set (0.00 sec)

#檢視相關狀態呢變數

mysql> select * from information_schema.session_status where variable_name in('Last_query_cost','Handler_read_next','Innodb_pages_read','Innodb_data_reads','Innodb_pages_read');

+-------------------+----------------+

| VARIABLE_NAME | VARIABLE_VALUE |

+-------------------+----------------+

| HANDLER_READ_NEXT | 11111 | #請求讀的行數

| INNODB_DATA_READS | 7868409 | #資料物理讀的總數

| INNODB_PAGES_READ | 7855239 | #邏輯讀的總數

| LAST_QUERY_COST | 10.499000 | #SQL語句的成本COST,主要包括IO_COST和CPU_COST。

+-------------------+----------------+

4 rows in set (0.00 sec)

mysql> delete from user limit 500000;

Query OK, 500000 rows affected (3.70 sec)

#分析表統計資訊

mysql> analyze table user;

+-----------+---------+----------+----------+

| Table | Op | Msg_type | Msg_text |

+-----------+---------+----------+----------+

| test.user | analyze | status | OK |

+-----------+---------+----------+----------+

1 row in set (0.01 sec)

#重置狀態變數計數

mysql> flush status;

Query OK, 0 rows affected (0.01 sec)

mysql> select id, age ,phone from user where name like 'lyn12%';

Empty set (0.05 sec)

mysql> explain select id, age ,phone from user where name like 'lyn12%';

+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+

| 1 | SIMPLE | user | range | idx_name | idx_name | 82 | NULL | 22226 | Using index condition |

+----+-------------+-------+-------+---------------+----------+---------+------+-------+-----------------------+

1 row in set (0.00 sec)

mysql> select * from information_schema.session_status where variable_name in('Last_query_cost','Handler_read_next','Innodb_pages_read','Innodb_data_reads','Innodb_pages_read');

+-------------------+----------------+

| VARIABLE_NAME | VARIABLE_VALUE |

+-------------------+----------------+

| HANDLER_READ_NEXT | 0 |

| INNODB_DATA_READS | 7868409 |

| INNODB_PAGES_READ | 7855239 |

| LAST_QUERY_COST | 10.499000 |

+-------------------+----------------+

4 rows in set (0.00 sec)

結果統計分析

delete最佳化建議

控制業務賬號許可權

對於一個大的系統來說,需要根據業務特點去拆分子系統,每個子系統可以看做是一個service,例如美團APP,上面有很多服務,核心的服務有使用者服務user-service,搜尋服務search-service,商品product-service,位置服務location-service,價格服務price-service等。每個服務對應一個數據庫,為該資料庫建立單獨賬號,同時只授予DML許可權且沒有delete許可權,同時禁止跨庫訪問。

在MySQL資料庫建模規範中有4個公共欄位,基本上每個表必須有的,同時在create_time列要建立索引,有兩方面的好處:

一些查詢業務場景都會有一個預設的時間段,比如7天或者一個月,都是透過create_time去過濾,走索引掃描更快;一些核心的業務表需要以T +1的方式抽取資料倉庫中,比如每天晚上00:30抽取前一天的資料,都是透過create_time過濾的。

資料歸檔方式

通用資料歸檔方法

#1. 建立歸檔表,一般在原表名後面新增_bak。

CREATE TABLE `ota_order_bak` (

`id` bigint(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵',

`order_id` varchar(255) DEFAULT NULL COMMENT '訂單id',

`ota_id` varchar(255) DEFAULT NULL COMMENT 'ota',

`check_in_date` varchar(255) DEFAULT NULL COMMENT '入住日期',

`check_out_date` varchar(255) DEFAULT NULL COMMENT '離店日期',

`hotel_id` varchar(255) DEFAULT NULL COMMENT '酒店ID',

`guest_name` varchar(255) DEFAULT NULL COMMENT '顧客',

`purcharse_time` timestamp NULL DEFAULT NULL COMMENT '購買時間',

`create_time` datetime DEFAULT NULL,

`update_time` datetime DEFAULT NULL,

`create_user` varchar(255) DEFAULT NULL,

`update_user` varchar(255) DEFAULT NULL,

`hotel_name` varchar(255) DEFAULT NULL,

`price` decimal(10,0) DEFAULT NULL,

`remark` longtext,

PRIMARY KEY (`id`),

KEY `IDX_order_id` (`order_id`) USING BTREE,

KEY `hotel_name` (`hotel_name`) USING BTREE,

KEY `ota_id` (`ota_id`) USING BTREE,

KEY `IDX_purcharse_time` (`purcharse_time`) USING BTREE,

KEY `IDX_create_time` (`create_time`) USING BTREE

) ENGINE=InnoDB DEFAULT CHARSET=utf8

PARTITION BY RANGE (to_days(create_time)) (

PARTITION p201808 VALUES LESS THAN (to_days('2018-09-01')),

PARTITION p201809 VALUES LESS THAN (to_days('2018-10-01')),

PARTITION p201810 VALUES LESS THAN (to_days('2018-11-01')),

PARTITION p201811 VALUES LESS THAN (to_days('2018-12-01')),

PARTITION p201812 VALUES LESS THAN (to_days('2019-01-01')),

PARTITION p201901 VALUES LESS THAN (to_days('2019-02-01')),

PARTITION p201902 VALUES LESS THAN (to_days('2019-03-01')),

PARTITION p201903 VALUES LESS THAN (to_days('2019-04-01')),

PARTITION p201904 VALUES LESS THAN (to_days('2019-05-01')),

PARTITION p201905 VALUES LESS THAN (to_days('2019-06-01')),

PARTITION p201906 VALUES LESS THAN (to_days('2019-07-01')),

PARTITION p201907 VALUES LESS THAN (to_days('2019-08-01')),

PARTITION p201908 VALUES LESS THAN (to_days('2019-09-01')),

PARTITION p201909 VALUES LESS THAN (to_days('2019-10-01')),

PARTITION p201910 VALUES LESS THAN (to_days('2019-11-01')),

PARTITION p201911 VALUES LESS THAN (to_days('2019-12-01')),

PARTITION p201912 VALUES LESS THAN (to_days('2020-01-01')));

#2. 插入原表中無效的資料(需要跟開發同學確認資料保留範圍)

create table tbl_p201808 as select * from ota_order where create_time between '2018-08-01 00:00:00' and '2018-08-31 23:59:59';

#3. 跟歸檔表分割槽做分割槽交換

alter table ota_order_bak exchange partition p201808 with table tbl_p201808;

delete from ota_order where create_time between '2018-08-01 00:00:00' and '2018-08-31 23:59:59' limit 3000;

最佳化後的歸檔方式

#1. 建立中間表

CREATE TABLE `ota_order_2020` (........) ENGINE=InnoDB DEFAULT CHARSET=utf8

PARTITION BY RANGE (to_days(create_time)) (

PARTITION p201808 VALUES LESS THAN (to_days('2018-09-01')),

PARTITION p201809 VALUES LESS THAN (to_days('2018-10-01')),

PARTITION p201810 VALUES LESS THAN (to_days('2018-11-01')),

PARTITION p201811 VALUES LESS THAN (to_days('2018-12-01')),

PARTITION p201812 VALUES LESS THAN (to_days('2019-01-01')),

PARTITION p201901 VALUES LESS THAN (to_days('2019-02-01')),

PARTITION p201902 VALUES LESS THAN (to_days('2019-03-01')),

PARTITION p201903 VALUES LESS THAN (to_days('2019-04-01')),

PARTITION p201904 VALUES LESS THAN (to_days('2019-05-01')),

PARTITION p201905 VALUES LESS THAN (to_days('2019-06-01')),

PARTITION p201906 VALUES LESS THAN (to_days('2019-07-01')),

PARTITION p201907 VALUES LESS THAN (to_days('2019-08-01')),

PARTITION p201908 VALUES LESS THAN (to_days('2019-09-01')),

PARTITION p201909 VALUES LESS THAN (to_days('2019-10-01')),

PARTITION p201910 VALUES LESS THAN (to_days('2019-11-01')),

PARTITION p201911 VALUES LESS THAN (to_days('2019-12-01')),

PARTITION p201912 VALUES LESS THAN (to_days('2020-01-01')));

#2. 插入原表中有效的資料,如果資料量在100W左右可以在業務低峰期直接插入,如果比較大,建議採用dataX來做,可以控制頻率和大小,之前我這邊用Go封裝了dataX可以實現自動生成json檔案,自定義大小去執行。

insert into ota_order_2020 select * from ota_order where create_time between '2020-08-01 00:00:00' and '2020-08-31 23:59:59';

#3. 表重新命名

alter table ota_order rename to ota_order_bak;

alter table ota_order_2020 rename to ota_order;

#4. 插入差異資料

insert into ota_order select * from ota_order_bak a where not exists (select 1 from ota_order b where a.id = b.id);

#5. ota_order_bak改造成分割槽表,如果表比較大不建議直接改造,可以先建立好分割槽表,透過dataX把匯入進去即可。

#6. 後續的歸檔方法

#建立中間普遍表

create table ota_order_mid like ota_order;

#交換原表無效資料分割槽到普通表

alter table ota_order exchange partition p201808 with table ota_order_mid;

##交換普通表資料到歸檔表的相應分割槽

alter table ota_order_bak exchange partition p201808 with table ota_order_mid;

總結

同時在碎片回收時,會耗用大量的CPU,磁碟空間,影響表上正常的DML操作。

另外一個比較好的方案採用Clickhouse,對有生命週期的資料表可以使用Clickhouse儲存,利用其TTL特性實現無效資料自動清理。

作者丨三太子敖丙

4
  • BSA-TRITC(10mg/ml) TRITC-BSA 牛血清白蛋白改性標記羅丹明
  • 大廠介面測試都在用的技術——Diff(附原始碼)