回覆列表
  • 1 # 愛可生雲資料庫

    MySQL 一直以來都支援正則匹配,不過對於正則替換則一直到MySQL 8.0 才支援。對於這類場景,以前要麼在MySQL端處理,要麼把資料拿出來在應用端處理。

    比如我想把表y1的列str1的出現第3個action的子 串替換成dble,怎麼實現?

    1. 自己寫SQL層的儲存函式。程式碼如下寫死了3個,沒有最佳化,僅僅作為演示,MySQL 裡非常不建議寫這樣的函式。

    mysqlDELIMITER $$USE `ytt`$$DROP FUNCTION IF EXISTS `func_instr_simple_ytt`$$CREATE DEFINER=`root`@`localhost` FUNCTION `func_instr_simple_ytt`(f_str VARCHAR(1000), -- Parameter 1f_substr VARCHAR(100), -- Parameter 2f_replace_str varchar(100),f_times int -- times counter.only support 3.) RETURNS varchar(1000)BEGINdeclare v_result varchar(1000) default "ytt"; -- result.declare v_substr_len int default 0; -- search string length.set f_times = 3; -- only support 3.set v_substr_len = length(f_substr);select instr(f_str,f_substr) into @p1; -- First real position .select instr(substr(f_str,@p1+v_substr_len),f_substr) into @p2; Secondary virtual position.select instr(substr(f_str,@p2+ @p1 +2*v_substr_len - 1),f_substr) into @p3; -- Third virtual position.if @p1 > 0 && @p2 > 0 && @p3 > 0 then -- Fine.selectconcat(substr(f_str,1,@p1 + @p2 + @p3 + (f_times - 1) * v_substr_len - f_times),f_replace_str,substr(f_str,@p1 + @p2 + @p3 + f_times * v_substr_len-2)) into v_result;elseset v_result = f_str; -- Never changed.end if;-- Purge all session variables.set @p1 = null;set @p2 = null;set @p3 = null;return v_result;end;$$DELIMITER ;-- 呼叫函式來更新:mysql> update y1 set str1 = func_instr_simple_ytt(str1,"action","dble",3);Query OK, 20 rows affected (0.12 sec)Rows matched: 20 Changed: 20 Warnings: 02. 匯出來用sed之類的工具替換掉在匯入,步驟如下:(推薦使用)1)匯出表y1的記錄。mysqlmysql> select * from y1 into outfile "/var/lib/mysql-files/y1.csv";Query OK, 20 rows affected (0.00 sec)2)用sed替換匯出來的資料。shellroot@ytt-Aspire-V5-471G:/var/lib/mysql-files# sed -i "s/action/dble/3" y1.csv3)再次匯入處理好的資料,完成。mysqlmysql> truncate y1;Query OK, 0 rows affected (0.99 sec)mysql> load data infile "/var/lib/mysql-files/y1.csv" into table y1;Query OK, 20 rows affected (0.14 sec)Records: 20 Deleted: 0 Skipped: 0 Warnings: 0以上兩種還是推薦匯出來處理好了再重新匯入,效能來的高些,而且還不用自己費勁寫函式程式碼。那MySQL 8.0 對於以上的場景實現就非常簡單了,一個函式就搞定了。mysqlmysql> update y1 set str1 = regexp_replace(str1,"action","dble",1,3) ;Query OK, 20 rows affected (0.13 sec)Rows matched: 20 Changed: 20 Warnings: 0還有一個regexp_instr 也非常有用,特別是這種特指出現第幾次的場景。比如定義 SESSION 變數@a。mysqlmysql> set @a = "aa bb cc ee fi lucy 1 1 1 b s 2 3 4 5 2 3 5 561 19 10 10 20 30 10 40";Query OK, 0 rows affected (0.04 sec)拿到至少兩次的數字出現的第二次子串的位置。mysqlmysql> select regexp_instr(@a,"[:digit:]{2,}",1,2);+--------------------------------------+| regexp_instr(@a,"[:digit:]{2,}",1,2) |+--------------------------------------+| 50 |+--------------------------------------+1 row in set (0.00 sec)那我們在看看對多位元組字元支援如何。mysqlmysql> set @a = "中國 美國 俄羅斯 日本 中國 北京 上海 深圳 廣州 北京 上海 武漢 東莞 北京 青島 北京";Query OK, 0 rows affected (0.00 sec)mysql> select regexp_instr(@a,"北京",1,1);+-------------------------------+| regexp_instr(@a,"北京",1,1) |+-------------------------------+| 17 |+-------------------------------+1 row in set (0.00 sec)mysql> select regexp_instr(@a,"北京",1,2);+-------------------------------+| regexp_instr(@a,"北京",1,2) |+-------------------------------+| 29 |+-------------------------------+1 row in set (0.00 sec)mysql> select regexp_instr(@a,"北京",1,3);+-------------------------------+| regexp_instr(@a,"北京",1,3) |+-------------------------------+| 41 |+-------------------------------+1 row in set (0.00 sec)那總結下,這裡我提到了 MySQL 8.0 的兩個最有用的正則匹配函式 regexp_replace 和 regexp_instr。針對以前類似的場景算是有一個完美的解決方案。

  • 2 # Java架構達人

    一、Mysql分庫分表方案

    1.為什麼要分表:

    當一張表的資料達到幾千萬時,你查詢一次所花的時間會變多,如果有聯合查詢的話,我想有可能會死在那兒了。分表的目的就在於此,減小資料庫的負擔,縮短查詢時間。

    mysql中有一種機制是表鎖定和行鎖定,是為了保證資料的完整性。表鎖定表示你們都不能對這張表進行操作,必須等我對錶操作完才行。行鎖定也一樣,別的sql必須等我對這條資料操作完了,才能對這條資料進行操作。

    2. mysql proxy:amoeba

    做mysql叢集,利用amoeba。

    3.大資料量並且訪問頻繁的表,將其分為若干個表

    比如對於某網站平臺的資料庫表-公司表,資料量很大,這種能預估出來的大資料量表,我們就事先分出個N個表,這個N是多少,根據實際情況而定。

    某網站現在的資料量至多是5000萬條,可以設計每張表容納的資料量是500萬條,也就是拆分成10張表,

    那麼如何判斷某張表的資料是否容量已滿呢?可以在程式段對於要新增資料的表,在插入前先做統計表記錄數量的操作,當<500萬條資料,就直接插入,當已經到達閥值,可以在程式段新建立資料庫表(或者已經事先建立好),再執行插入操作。

    4. 利用merge儲存引擎來實現分表

    如果要把已有的大資料量表分開比較痛苦,最痛苦的事就是改程式碼,因為程式裡面的sql語句已經寫好了。用merge儲存引擎來實現分表, 這種方法比較適合.

    舉例子:

    二、資料庫架構(Java自學網推薦 www.javazx.com)

    1、簡單的MySQL主從複製:

    MySQL的主從複製解決了資料庫的讀寫分離,並很好的提升了讀的效能,其圖如下:

    其主從複製的過程如下圖所示:

    但是,主從複製也帶來其他一系列效能瓶頸問題:

    寫入無法擴充套件寫入無法快取複製延時鎖表率上升表變大,快取率下降

    那問題產生總得解決的,這就產生下面的最佳化方案,一起來看看。

    2、MySQL垂直分割槽

    如果把業務切割得足夠獨立,那把不同業務的資料放到不同的資料庫伺服器將是一個不錯的方案,而且萬一其中一個業務崩潰了也不會影響其他業務的正常進行,並且也起到了負載分流的作用,大大提升了資料庫的吞吐能力。經過垂直分割槽後的資料庫架構圖如下:

    然而,儘管業務之間已經足夠獨立了,但是有些業務之間或多或少總會有點聯絡,如使用者,基本上都會和每個業務相關聯,況且這種分割槽方式,也不能解決單張表資料量暴漲的問題,因此為何不試試水平分割呢?

    3、MySQL水平分片(Sharding)

    這是一個非常好的思路,將使用者按一定規則(按id雜湊)分組,並把該組使用者的資料儲存到一個數據庫分片中,即一個sharding,這樣隨著使用者數量的增加,只要簡單地配置一臺伺服器即可,原理圖如下:

    如何來確定某個使用者所在的shard呢,可以建一張使用者和shard對應的資料表,每次請求先從這張表找使用者的shard id,再從對應shard中查詢相關資料,如下圖所示:

    ①單庫單表

    單庫單表是最常見的資料庫設計,例如,有一張使用者(user)表放在資料庫db中,所有的使用者都可以在db庫中的user表中查到。

    ②單庫多表

    隨著使用者數量的增加,user表的資料量會越來越大,當資料量達到一定程度的時候對user表的查詢會漸漸的變慢,從而影響整個DB的效能。如果使用mysql, 還有一個更嚴重的問題是,當需要新增一列的時候,mysql會鎖表,期間所有的讀寫操作只能等待。 可以透過某種方式將user進行水平的切分,產生兩個表結構完全一樣的user_0000,user_0001等表,user_0000 + user_0001 + …的資料剛好是一份完整的資料。

    四、分庫分表規則

    設計表的時候需要確定此表按照什麼樣的規則進行分庫分表。例如,當有新使用者時,程式得確定將此使用者資訊新增到哪個表中;同理,當登入的時候我們得透過使用者的賬號找到資料庫中對應的記錄,所有的這些都需要按照某一規則進行。 路由 透過分庫分表規則查詢到對應的表和庫的過程。如分庫分表的規則是user_id mod 4的方式,當用戶新註冊了一個賬號,賬號id的123,我們可以透過id mod 4的方式確定此賬號應該儲存到User_0003表中。當用戶123登入的時候,我們透過123 mod 4後確定記錄在User_0003中。 分庫分表產生的問題,及注意事項

    1. 分庫分表維度的問題

    假如使用者購買了商品,需要將交易記錄儲存取來,如果按照使用者的緯度分表,則每個使用者的交易記錄都儲存在同一表中,所以很快很方便的查詢到某使用者的 購買情況,但是某商品被購買的情況則很有可能分佈在多張表中,查詢起來比較麻煩。反之,按照商品維度分表,可以很方便的查詢到此商品的購買情況,但要查詢 到買人的交易記錄比較麻煩。 所以常見的解決方式有:

    透過掃表的方式解決,此方法基本不可能,效率太低了。記錄兩份資料,一份按照使用者緯度分表,一份按照商品維度分表。透過搜尋引擎解決,但如果實時性要求很高,又得關係到實時搜尋。 2. 聯合查詢的問題

    聯合查詢基本不可能,因為關聯的表有可能不在同一資料庫中。

    3. 避免跨庫事務

    避免在一個事務中修改db0中的表的時候同時修改db1中的表,一個是操作起來更復雜,效率也會有一定影響。

    4. 儘量把同一組資料放到同一DB伺服器上

    例如將賣家a的商品和交易資訊都放到db0中,當db1掛了的時候,賣家a相關的東西可以正常使用。也就是說避免資料庫中的資料依賴另一資料庫中的資料。

    5.一主多備

    在實際的應用中,絕大部分情況都是讀遠大於寫。Mysql提供了讀寫分離的機制,所有的寫操作都必須對應到Master,讀操作可以在 Master和Slave機器上進行,Slave與Master的結構完全一樣,一個Master可以有多個Slave,甚至Slave下還可以掛 Slave,透過此方式可以有效的提高DB叢集的 QPS. 所有的寫操作都是先在Master上操作,然後同步更新到Slave上,所以從Master同步到Slave機器有一定的延遲,當系統很繁忙的時候,延遲問題會更加嚴重,Slave機器數量的增加也會使這個問題更加嚴重。 此外,可以看出Master是叢集的瓶頸,當寫操作過多,會嚴重影響到Master的穩定性,如果Master掛掉,整個叢集都將不能正常工作。 所以

    當讀壓力很大的時候,可以考慮新增Slave機器的分式解決,但是當Slave機器達到一定的數量就得考慮分庫了。當寫壓力很大的時候,就必須得進行分庫操作。

    五、MySQL使用為什麼要分庫分表

    可以用說用到MySQL的地方,只要資料量一大, 馬上就會遇到一個問題,要分庫分表. 這裡引用一個問題為什麼要分庫分表呢?MySQL處理不了大的表嗎? 其實是可以處理的大表的.我所經歷的專案中單表物理上檔案大小在80G多,單表記錄數在5億以上,而且這個表 屬於一個非常核用的表:朋友關係表. 但這種方式可以說不是一個最佳方式. 因為面臨檔案系統如Ext3檔案系統對大於大檔案處理上也有許多問題. 這個層面可以用xfs檔案系統進行替換.但MySQL單表太大後有一個問題是不好解決: 表結構調整相關的操作基 本不在可能.所以大項在使用中都會面監著分庫分表的應用. 從Innodb本身來講資料檔案的Btree上只有兩個鎖, 葉子節點鎖和子節點鎖,可以想而知道,當發生頁拆分或是新增新葉時都會造成表裡不能寫入資料.所以分庫分表還就是一個比較好的選擇了. 那麼分庫分表多少合適呢? 經測試在單表1000萬條記錄一下,寫入讀取效能是比較好的. 這樣在留點buffer,那麼單表全是資料字型的保持在800萬條記錄以下, 有字元型的單表保持在500萬以下. 如果按 100庫100表來規劃,如使用者業務: 500萬*100*100 = 50000000萬 = 5000億記錄. 心裡有一個數了,按業務做規劃還是比較容易的.

    分散式資料庫架構--排序、分頁、分組、實現

    六、最近研究分散式資料庫架構,發現排序、分組及分頁讓著實人有點頭疼。現把問題及解決思路整理如下。

    1.多分片(水平切分)返回結果合併(排序)①Select + None Aggregate Function的有序記錄合併排序

    解決思路:對各分片返回的有序記錄,進行排序去重合並。此處主要是編寫排序去重合並演算法。

    ②Select + None Aggregate Function的無序記錄合併

    解決思路:對各分片返回的無序記錄,進行去重合並。

    優點:實現比較簡單。 缺點:資料量越大,欄位越多,去重處理就會越耗時。③Select + Aggregate Function的記錄合併(排序)Oracle常用聚合函式:Count、Max、Min、Avg、Sum。AF:Max、Min思路:透過演算法對各分片返回結果再求max、min值。AF:Avg、Sum、Count思路:分片間無重複記錄或欄位時,透過演算法對各分片返回結果再求avg、sum、count值。分片間有重複記錄或欄位時,先對各分片記錄去重合並,再透過演算法求avg、sum、count值。

    比如:

    select count(*) from userselect count(deptno) from user;select count(distinct deptno) from user;2.多分片(水平切分)返回結果分頁

    解決思路:合併各分片返回結果,邏輯分頁。

    優點: 實現簡單。

    缺點: 資料量越大,快取壓力就越大。

    分片資料量越大,查詢也會越慢。

    3.多分片(水平切分)查詢有分組語法的合併①Group By Having + None Aggregate Function時Select + None Aggregate Function比如:select job user group by job;思路:直接去重(排序)合併。Select + Aggregate Function比如:select max(sal),job user group by job;思路:同Select + Aggregate Function的記錄合併(排序)。②Group By Having + Aggregate Function時

    解決思路:去掉having AF條件查詢各分片,然後把資料放到一張表裡。再用group by having 聚合函式查詢。

    4.分散式資料庫架構--排序分組分頁參考解決方案解決方案1:Hadoop + Hive。思路:使用Hadoop HDFS來儲存資料,透過Hdoop MapReduce完成資料計算,透過Hive HQL語言使用部分與RDBBS一樣的表格查詢特性和分散式儲存計算特性。優點:可以解決問題具有併發處理能力可以離線處理缺點: 實時性不能保證網路延遲會增加異常捕獲難度增加Web應用起來比較複雜解決方案2:總庫集中查詢。優點:可以解決問題實現簡單缺點:總庫資料不能太大併發壓力大5.小結

    對 於分散式資料庫架構來說,排序、分頁、分組一直就是一個比較複雜的問題。避免此問題需要好好地設計分庫、分表策略。同時根據特定的場景來解決問題。也可以 充分利用海量資料儲存(Hadoop-HDFS|Hive|HBse)、搜尋引擎(Lucene|Solr)及分散式計算(MapReduce)等技術來 解決問題。別外,也可以用NoSQL技術替代關係性資料庫來解決問題,比如MogonDB\redis。

    即使爬到最高的山上,一次也只能腳踏實地地邁一步。

  • 3 # 會點程式碼的大叔

    個人的觀點,這種大表的最佳化,不一定上來就要分庫分表,因為表一旦被拆分,開發、運維的複雜度會直線上升,而大多數公司是欠缺這種能力的。所以MySQL中幾百萬甚至小几千萬的表,先考慮做單表的最佳化。

    單表最佳化

    單表最佳化可以從這幾個角度出發:

    表分割槽:MySQL在5.1之後才有的,可以看做是水平拆分,分割槽表需要在建表的需要加上分割槽引數,使用者需要在建表的時候加上分割槽引數;分割槽表底層由多個物理子表組成,但是對於程式碼來說,分割槽表是透明的;SQL中的條件中最好能帶上分割槽條件的列,這樣可以定位到少量的分割槽上,否則就會掃描全部分割槽。

    讀寫分離:最常用的最佳化手段,寫主庫讀從庫;

    增加快取:主要的思想就是減少對資料庫的訪問,快取可以在整個架構中的很多地方,比如:資料庫本身有就快取,客戶端快取,資料庫訪問層對SQL語句的快取,應用程式內的快取,第三方快取(如Redis等);

    欄位設計:單表不要有太多欄位;VARCHAR的長度儘量只分配真正需要的空間;儘量使用TIMESTAMP而非DATETIME;避免使用NULL,可以透過設定預設值解決。

    SQL最佳化:儘量使用索引,也要保證不要因為錯誤的寫法導致索引失效;比如:避免前導模糊查詢,避免隱式轉換,避免等號左邊做函式運算,in中的元素不宜過多等等;

    NoSQL:有一些場景,可以拋棄MySQL等關係型資料庫,擁抱NoSQL;比如:統計類、日誌類、弱結構化的資料;事務要求低的場景。

    表拆分

    資料量進一步增大的時候,就不得不考慮表拆分的問題了:

    垂直拆分:垂直拆分的意思就是把一個欄位較多的表,拆分成多個欄位較少的表;上文中也說過單表的欄位不宜過多,如果初期的表結構設計的就很好,就不會有垂直拆分的問題了;一般來說,MySQL單表的欄位最好不要超過二三十個。

    水平拆分:就是我們常說的分庫分表了;分表,解決了單表資料過大的問題,但是畢竟還在同一臺數據庫伺服器上,所以IO、CPU、網路方面的壓力,並不會得到徹底的緩解,這個可以透過分庫來解決。水平拆分優點很明顯,可以利用多臺資料庫伺服器的資源,提高了系統的負載能力;缺點是邏輯會變得複雜,跨節點的資料關聯效能差,維護難度大(特別是擴容的時候)。

  • 中秋節和大豐收的關聯?
  • 《完美關係》中張馨予上線,她出現會給大家帶來什麼樣的故事呢?