国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SQL優化思路與經典案例分析

數據分析與開發 ? 來源:數據分析與開發 ? 作者:數據分析與開發 ? 2022-10-27 13:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

SQL調優這塊呢,大廠面試必問的。最近金九銀十嘛,所以整理了SQL的調優思路,并且附幾個經典案例分析。

1.慢SQL優化思路。

  1. 慢查詢日志記錄慢SQL
  2. explain分析SQL的執行計劃
  3. profile 分析執行耗時
  4. Optimizer Trace分析詳情
  5. 確定問題并采用相應的措施

1.1 慢查詢日志記錄慢SQL

如何定位慢SQL呢、我們可以通過慢查詢日志來查看慢SQL。默認的情況下呢,MySQL數據庫是不開啟慢查詢日志(slow query log)呢。所以我們需要手動把它打開。

查看下慢查詢日志配置,我們可以使用show variables like 'slow_query_log%'命令,如下:

850a1336-55b5-11ed-a3b6-dac502259ad0.png
  • slow query log表示慢查詢開啟的狀態
  • slow_query_log_file表示慢查詢日志存放的位置

我們還可以使用show variables like 'long_query_time'命令,查看超過多少時間,才記錄到慢查詢日志,如下:

851e92a2-55b5-11ed-a3b6-dac502259ad0.png
  • long_query_time表示查詢超過多少秒才記錄到慢查詢日志。

我們可以通過慢查日志,定位那些執行效率較低的SQL語句,重點關注分析。

1.2 explain查看分析SQL的執行計劃

當定位出查詢效率低的SQL后,可以使用explain查看SQL的執行計劃。

explainSQL一起使用時,MySQL將顯示來自優化器的有關語句執行計劃的信息。即MySQL解釋了它將如何處理該語句,包括有關如何連接表以及以何種順序連接表等信息。

一條簡單SQL,使用了explain的效果如下:

8534d2b0-55b5-11ed-a3b6-dac502259ad0.png

一般來說,我們需要重點關注type、rows、filtered、extra、key

1.2.1 type

type表示連接類型,查看索引執行情況的一個重要指標。以下性能從好到壞依次:system > const > eq_ref > ref > ref_or_null > index_merge > unique_subquery > index_subquery > range > index > ALL

  • system:這種類型要求數據庫表中只有一條數據,是const類型的一個特例,一般情況下是不會出現的。
  • const:通過一次索引就能找到數據,一般用于主鍵或唯一索引作為條件,這類掃描效率極高,,速度非常快。
  • eq_ref:常用于主鍵或唯一索引掃描,一般指使用主鍵的關聯查詢
  • ref : 常用于非主鍵和唯一索引掃描。
  • ref_or_null:這種連接類型類似于ref,區別在于MySQL會額外搜索包含NULL值的行
  • index_merge:使用了索引合并優化方法,查詢使用了兩個以上的索引。
  • unique_subquery:類似于eq_ref,條件用了in子查詢
  • index_subquery:區別于unique_subquery,用于非唯一索引,可以返回重復值。
  • range:常用于范圍查詢,比如:between ... and 或 In 等操作
  • index:全索引掃描
  • ALL:全表掃描

1.2.2 rows

該列表示MySQL估算要找到我們所需的記錄,需要讀取的行數。對于InnoDB表,此數字是估計值,并非一定是個準確值。

1.2.3 filtered

該列是一個百分比的值,表里符合條件的記錄數的百分比。簡單點說,這個字段表示存儲引擎返回的數據在經過過濾后,剩下滿足條件的記錄數量的比例。

1.2.4 extra

該字段包含有關MySQL如何解析查詢的其他信息,它一般會出現這幾個值:

  • Using filesort:表示按文件排序,一般是在指定的排序和索引排序不一致的情況才會出現。一般見于order by語句
  • Using index :表示是否用了覆蓋索引。
  • Using temporary: 表示是否使用了臨時表,性能特別差,需要重點優化。一般多見于group by語句,或者union語句。
  • Using where : 表示使用了where條件過濾.
  • Using index condition:MySQL5.6之后新增的索引下推。在存儲引擎層進行數據過濾,而不是在服務層過濾,利用索引現有的數據減少回表的數據。

1.2.5 key

該列表示實際用到的索引。一般配合possible_keys列一起看。

1.3 profile 分析執行耗時

explain只是看到SQL的預估執行計劃,如果要了解SQL真正的執行線程狀態及消耗的時間,需要使用profiling。開啟profiling參數后,后續執行的SQL語句都會記錄其資源開銷,包括IO,上下文切換,CPU,內存等等,我們可以根據這些開銷進一步分析當前慢SQL的瓶頸再進一步進行優化。

profiling默認是關閉,我們可以使用show variables like '%profil%'查看是否開啟,如下:

855af742-55b5-11ed-a3b6-dac502259ad0.png

可以使用set profiling=ON開啟。開啟后,可以運行幾條SQL,然后使用show profiles查看一下。

856815ee-55b5-11ed-a3b6-dac502259ad0.png

show profiles會顯示最近發給服務器的多條語句,條數由變量profiling_history_size定義,默認是15。如果我們需要看單獨某條SQL的分析,可以show profile查看最近一條SQL的分析,也可以使用show profile for query id(其中id就是show profiles中的QUERY_ID)查看具體一條的SQL語句分析。

8578efae-55b5-11ed-a3b6-dac502259ad0.png

除了查看profile ,還可以查看cpu和io,如上圖。

1.4 Optimizer Trace分析詳情

profile只能查看到SQL的執行耗時,但是無法看到SQL真正執行的過程信息,即不知道MySQL優化器是如何選擇執行計劃。這時候,我們可以使用Optimizer Trace,它可以跟蹤執行語句的解析優化執行的全過程。

我們可以使用set optimizer_trace="enabled=on"打開開關,接著執行要跟蹤的SQL,最后執行select * from information_schema.optimizer_trace跟蹤,如下:

85a59496-55b5-11ed-a3b6-dac502259ad0.png

大家可以查看分析其執行樹,會包括三個階段:

  • join_preparation:準備階段
  • join_optimization:分析階段
  • join_execution:執行階段
85bb4322-55b5-11ed-a3b6-dac502259ad0.png

1.5 確定問題并采用相應的措施

最后確認問題,就采取對應的措施。

  • 多數慢SQL都跟索引有關,比如不加索引,索引不生效、不合理等,這時候,我們可以優化索引
  • 我們還可以優化SQL語句,比如一些in元素過多問題(分批),深分頁問題(基于上一次數據過濾等),進行時間分段查詢
  • SQl沒辦法很好優化,可以改用ES的方式,或者數倉。
  • 如果單表數據量過大導致慢查詢,則可以考慮分庫分表
  • 如果數據庫在刷臟頁導致慢查詢,考慮是否可以優化一些參數,跟DBA討論優化方案
  • 如果存量數據量太大,考慮是否可以讓部分數據歸檔

2. 慢查詢經典案例分析

2.1 案例1:隱式轉換

我們創建一個用戶user表

CREATETABLEuser(
idint(11)NOTNULLAUTO_INCREMENT,
userIdvarchar(32)NOTNULL,
agevarchar(16)NOTNULL,
namevarchar(255)NOTNULL,
PRIMARYKEY(id),
KEYidx_userid(userId)USINGBTREE
)ENGINE=InnoDBDEFAULTCHARSET=utf8;

userId字段為字串類型,是B+樹的普通索引,如果查詢條件傳了一個數字過去,會導致索引失效。如下:

860e85b4-55b5-11ed-a3b6-dac502259ad0.png

如果給數字加上'',也就是說,傳的是一個字符串呢,當然是走索引,如下圖:

86201928-55b5-11ed-a3b6-dac502259ad0.png

為什么第一條語句未加單引號就不走索引了呢?這是因為不加單引號時,是字符串跟數字的比較,它們類型不匹配,MySQL會做隱式的類型轉換,把它們轉換為浮點數再做比較。隱式的類型轉換,索引會失效。

2.2 案例2:最左匹配

MySQl建立聯合索引時,會遵循最左前綴匹配的原則,即最左優先。如果你建立一個(a,b,c)的聯合索引,相當于建立了(a)、(a,b)、(a,b,c)三個索引。

假設有以下表結構:

CREATETABLEuser(
idint(11)NOTNULLAUTO_INCREMENT,
user_idvarchar(32)NOTNULL,
agevarchar(16)NOTNULL,
namevarchar(255)NOTNULL,
PRIMARYKEY(id),
KEYidx_userid_name(user_id,name)USINGBTREE
)ENGINE=InnoDBDEFAULTCHARSET=utf8;

假設有一個聯合索引idx_userid_name,我們現在執行以下SQL,如果查詢列是name,索引是無效的:

explainselect*fromuserwherename='撿田螺的小男孩';
8656467e-55b5-11ed-a3b6-dac502259ad0.png

因為查詢條件列name不是聯合索引idx_userid_name中的第一個列,不滿足最左匹配原則,所以索引不生效。在聯合索引中,只有查詢條件滿足最左匹配原則時,索引才正常生效。如下,查詢條件列是user_id

867fa2b2-55b5-11ed-a3b6-dac502259ad0.png

2.3 案例3:深分頁問題

limit深分頁問題,會導致慢查詢,應該大家都司空見慣了吧。

limit深分頁為什么會變慢呢? 假設有表結構如下:

CREATETABLEaccount(
idint(11)NOTNULLAUTO_INCREMENTCOMMENT'主鍵Id',
namevarchar(255)DEFAULTNULLCOMMENT'賬戶名',
balanceint(11)DEFAULTNULLCOMMENT'余額',
create_timedatetimeNOTNULLCOMMENT'創建時間',
update_timedatetimeNOTNULLONUPDATECURRENT_TIMESTAMPCOMMENT'更新時間',
PRIMARYKEY(id),
KEYidx_name(name),
KEYidx_create_time(create_time)//索引
)ENGINE=InnoDBAUTO_INCREMENT=1570068DEFAULTCHARSET=utf8ROW_FORMAT=REDUNDANTCOMMENT='賬戶表';

以下這個SQL,你知道執行過程是怎樣的呢?

selectid,name,balancefromaccountwherecreate_time>'2020-09-19'limit100000,10;

這個SQL的執行流程醬紫:

  1. 通過普通二級索引樹idx_create_time,過濾create_time條件,找到滿足條件的主鍵id
  2. 通過主鍵id,回到id主鍵索引樹,找到滿足記錄的行,然后取出需要展示的列(回表過程)
  3. 掃描滿足條件的100010行,然后扔掉前100000行,返回。
869cc202-55b5-11ed-a3b6-dac502259ad0.png

因此,limit深分頁,導致SQL變慢原因有兩個:

  • limit語句會先掃描offset+n行,然后再丟棄掉前offset行,返回后n行數據。也就是說limit 100000,10,就會掃描100010行,而limit 0,10,只掃描10行。
  • limit 100000,10 掃描更多的行數,也意味著回表更多的次數。

如何優化深分頁問題?

我們可以通過減少回表次數來優化。一般有標簽記錄法和延遲關聯法

標簽記錄法

就是標記一下上次查詢到哪一條了,下次再來查的時候,從該條開始往下掃描。就好像看書一樣,上次看到哪里了,你就折疊一下或者夾個書簽,下次來看的時候,直接就翻到啦。

假設上一次記錄到100000,則SQL可以修改為:

selectid,name,balanceFROMaccountwhereid>100000limit10;

這樣的話,后面無論翻多少頁,性能都會不錯的,因為命中了id索引。但是這種方式有局限性:需要一種類似連續自增的字段。

延遲關聯法

延遲關聯法,就是把條件轉移到主鍵索引樹,然后減少回表。如下

selectacct1.id,acct1.name,acct1.balanceFROMaccountacct1INNERJOIN(SELECTa.idFROMaccountaWHEREa.create_time>'2020-09-19'limit100000,10)ASacct2onacct1.id=acct2.id;

優化思路就是,先通過idx_create_time二級索引樹查詢到滿足條件的主鍵ID,再與原表通過主鍵ID內連接,這樣后面直接走了主鍵索引了,同時也減少了回表。

2.4 案例4:in元素過多

如果使用了in,即使后面的條件加了索引,還是要注意in后面的元素不要過多哈。in元素一般建議不要超過200個,如果超過了,建議分組,每次200一組進行哈。

反例:

selectuser_id,namefromuserwhereuser_idin(1,2,3...1000000);

如果我們對in的條件不做任何限制的話,該查詢語句一次性可能會查詢出非常多的數據,很容易導致接口超時。尤其有時候,我們是用的子查詢,in后面的子查詢,你都不知道數量有多少那種,更容易采坑.如下這種子查詢:

select*fromuserwhereuser_idin(selectauthor_idfromartilcewheretype=1);

如果type = 1有1一千,甚至上萬個呢?肯定是慢SQL。索引一般建議分批進行,一次200個,比如:

selectuser_id,namefromuserwhereuser_idin(1,2,3...200);

in查詢為什么慢呢?

這是因為in查詢在MySQL底層是通過n*m的方式去搜索,類似union

in查詢在進行cost代價計算時(代價 = 元組數 * IO平均值),是通過將in包含的數值,一條條去查詢獲取元組數的,因此這個計算過程會比較的慢,所以MySQL設置了個臨界值(eq_range_index_dive_limit),5.6之后超過這個臨界值后該列的cost就不參與計算了。因此會導致執行計劃選擇不準確。默認是200,即in條件超過了200個數據,會導致in的代價計算存在問題,可能會導致Mysql選擇的索引不準確。

2.5 order by 走文件排序導致的慢查詢

如果order by 使用到文件排序,則會可能會產生慢查詢。我們來看下下面這個SQL:

selectname,age,cityfromstaffwherecity='深圳'orderbyagelimit10;

它表示的意思就是:查詢前10個,來自深圳員工的姓名、年齡、城市,并且按照年齡小到大排序。

86d10ad0-55b5-11ed-a3b6-dac502259ad0.png

查看explain執行計劃的時候,可以看到Extra這一列,有一個Using filesort,它表示用到文件排序。

order by文件排序效率為什么較低

大家可以看下這個下面這個圖:

86ebfe80-55b5-11ed-a3b6-dac502259ad0.png

order by排序,分為全字段排序rowid排序。它是拿max_length_for_sort_data和結果行數據長度對比,如果結果行數據長度超過max_length_for_sort_data這個值,就會走rowid排序,相反,則走全字段排序。

2.5.1 rowid排序

rowid排序,一般需要回表去找滿足條件的數據,所以效率會慢一點。以下這個SQL,使用rowid排序,執行過程是這樣:

selectname,age,cityfromstaffwherecity='深圳'orderbyagelimit10;
  1. MySQL為對應的線程初始化sort_buffer,放入需要排序的age字段,以及主鍵id
  2. 從索引樹idx_city, 找到第一個滿足 city='深圳’條件的主鍵id,假設idX
  3. 到主鍵id索引樹拿到id=X的這一行數據, 取age和主鍵id的值,存到sort_buffer
  4. 從索引樹idx_city拿到下一個記錄的主鍵id,假設id=Y
  5. 重復步驟 3、4 直到city的值不等于深圳為止;
  6. 前面5步已經查找到了所有city為深圳的數據,在sort_buffer中,將所有數據根據age進行排序;遍歷排序結果,取前10行,并按照id的值回到原表中,取出city、name 和 age三個字段返回給客戶端。
873b49ea-55b5-11ed-a3b6-dac502259ad0.png

2.5.2 全字段排序

同樣的SQL,如果是走全字段排序是這樣的:

selectname,age,cityfromstaffwherecity='深圳'orderbyagelimit10;
  1. MySQL 為對應的線程初始化sort_buffer,放入需要查詢的name、age、city字段;
  2. 從索引樹idx_city, 找到第一個滿足 city='深圳’條件的主鍵 id,假設找到id=X
  3. 到主鍵id索引樹拿到id=X的這一行數據, 取name、age、city三個字段的值,存到sort_buffer
  4. 從索引樹idx_city 拿到下一個記錄的主鍵id,假設id=Y
  5. 重復步驟 3、4 直到city的值不等于深圳為止;
  6. 前面5步已經查找到了所有city為深圳的數據,在sort_buffer中,將所有數據根據age進行排序;
  7. 按照排序結果取前10行返回給客戶端。
8752b2f6-55b5-11ed-a3b6-dac502259ad0.png

sort_buffer的大小是由一個參數控制的:sort_buffer_size

  • 如果要排序的數據小于sort_buffer_size,排序在sort_buffer內存中完成
  • 如果要排序的數據大于sort_buffer_size,則借助磁盤文件來進行排序。

借助磁盤文件排序的話,效率就更慢一點。因為先把數據放入sort_buffer,當快要滿時。會排一下序,然后把sort_buffer中的數據,放到臨時磁盤文件,等到所有滿足條件數據都查完排完,再用歸并算法把磁盤的臨時排好序的小文件,合并成一個有序的大文件。

2.5.3 如何優化order by的文件排序

order by使用文件排序,效率會低一點。我們怎么優化呢?

  • 因為數據是無序的,所以就需要排序。如果數據本身是有序的,那就不會再用到文件排序啦。而索引數據本身是有序的,我們通過建立索引來優化order by語句。
  • 我們還可以通過調整max_length_for_sort_data、sort_buffer_size等參數優化;

2.6 索引字段上使用is null, is not null,索引可能失效

表結構:

CREATETABLE`user`(
`id`int(11)NOTNULLAUTO_INCREMENT,
`card`varchar(255)DEFAULTNULL,
`name`varchar(255)DEFAULTNULL,
PRIMARYKEY(`id`),
KEY`idx_name`(`name`)USINGBTREE,
KEY`idx_card`(`card`)USINGBTREE
)ENGINE=InnoDBAUTO_INCREMENT=2DEFAULTCHARSET=utf8;

單個name字段加上索引,并查詢name為非空的語句,其實會走索引的,如下:

879beaa2-55b5-11ed-a3b6-dac502259ad0.png

單個card字段加上索引,并查詢name為非空的語句,其實會走索引的,如下:

87ac9212-55b5-11ed-a3b6-dac502259ad0.png

但是它兩用or連接起來,索引就失效了,如下:

87cfbde6-55b5-11ed-a3b6-dac502259ad0.png

很多時候,也是因為數據量問題,導致了MySQL優化器放棄走索引。同時,平時我們用explain分析SQL的時候,如果type=range,要注意一下哈,因為這個可能因為數據量問題,導致索引無效。

2.7 索引字段上使用(!= 或者 < >),索引可能失效

假設有表結構:

CREATETABLE`user`(
`id`int(11)NOTNULLAUTO_INCREMENT,
`userId`int(11)NOTNULL,
`age`int(11)DEFAULTNULL,
`name`varchar(255)NOTNULL,
PRIMARYKEY(`id`),
KEY`idx_age`(`age`)USINGBTREE
)ENGINE=InnoDBAUTO_INCREMENT=2DEFAULTCHARSET=utf8;

雖然age加了索引,但是使用了!= 或者< >,not in這些時,索引如同虛設。如下:

87dcbf8c-55b5-11ed-a3b6-dac502259ad0.png

其實這個也是跟mySQL優化器有關,如果優化器覺得即使走了索引,還是需要掃描很多很多行的哈,它覺得不劃算,不如直接不走索引。平時我們用!= 或者< >,not in的時候,留點心眼哈。

2.8 左右連接,關聯的字段編碼格式不一樣

新建兩個表,一個user,一個user_job

CREATETABLE`user`(
`id`int(11)NOTNULLAUTO_INCREMENT,
`name`varchar(255)CHARACTERSETutf8mb4DEFAULTNULL,
`age`int(11)NOTNULL,
PRIMARYKEY(`id`),
KEY`idx_name`(`name`)USINGBTREE
)ENGINE=InnoDBAUTO_INCREMENT=2DEFAULTCHARSET=utf8;

CREATETABLE`user_job`(
`id`int(11)NOTNULL,
`userId`int(11)NOTNULL,
`job`varchar(255)DEFAULTNULL,
`name`varchar(255)DEFAULTNULL,
PRIMARYKEY(`id`),
KEY`idx_name`(`name`)USINGBTREE
)ENGINE=InnoDBDEFAULTCHARSET=utf8;

user表的name字段編碼是utf8mb4,而user_job表的name字段編碼為utf8

880300d4-55b5-11ed-a3b6-dac502259ad0.png

執行左外連接查詢,user_job表還是走全表掃描,如下:

8813e26e-55b5-11ed-a3b6-dac502259ad0.png

如果把它們的name字段改為編碼一致,相同的SQL,還是會走索引。

88320870-55b5-11ed-a3b6-dac502259ad0.png

2.9 group by使用臨時表

group by一般用于分組統計,它表達的邏輯就是根據一定的規則,進行分組。日常開發中,我們使用得比較頻繁。如果不注意,很容易產生慢SQL。

2.9.1 group by執行流程

假設有表結構:

CREATETABLE`staff`(
`id`bigint(11)NOTNULLAUTO_INCREMENTCOMMENT'主鍵id',
`id_card`varchar(20)NOTNULLCOMMENT'身份證號碼',
`name`varchar(64)NOTNULLCOMMENT'姓名',
`age`int(4)NOTNULLCOMMENT'年齡',
`city`varchar(64)NOTNULLCOMMENT'城市',
PRIMARYKEY(`id`)
)ENGINE=InnoDBAUTO_INCREMENT=15DEFAULTCHARSET=utf8COMMENT='員工表';

我們查看一下這個SQL的執行計劃:

explainselectcity,count(*)asnumfromstaffgroupbycity;
884c6e36-55b5-11ed-a3b6-dac502259ad0.png
  • Extra 這個字段的Using temporary表示在執行分組的時候使用了臨時表
  • Extra 這個字段的Using filesort表示使用了文件排序

group by是怎么使用到臨時表和排序了呢?我們來看下這個SQL的執行流程

selectcity,count(*)asnumfromstaffgroupbycity;
  1. 創建內存臨時表,表里有兩個字段city和num
  2. 全表掃描staff的記錄,依次取出city = 'X'的記錄。
  • 判斷臨時表中是否有為city='X'的行,沒有就插入一個記錄 (X,1);
  • 如果臨時表中有city='X'的行,就將X這一行的num值加 1;
  1. 遍歷完成后,再根據字段city做排序,得到結果集返回給客戶端。這個流程的執行圖如下:
8860b4b8-55b5-11ed-a3b6-dac502259ad0.png

臨時表的排序是怎樣的呢?

就是把需要排序的字段,放到sort buffer,排完就返回。在這里注意一點哈,排序分全字段排序和rowid排序

  • 如果是全字段排序,需要查詢返回的字段,都放入sort buffer,根據排序字段排完,直接返回
  • 如果是rowid排序,只是需要排序的字段放入sort buffer,然后多一次回表操作,再返回。

2.9.2 group by可能會慢在哪里?

group by使用不當,很容易就會產生慢SQL問題。因為它既用到臨時表,又默認用到排序。有時候還可能用到磁盤臨時表。

  • 如果執行過程中,會發現內存臨時表大小到達了上限(控制這個上限的參數就是tmp_table_size),會把內存臨時表轉成磁盤臨時表。
  • 如果數據量很大,很可能這個查詢需要的磁盤臨時表,就會占用大量的磁盤空間。

2.9.3 如何優化group by呢

從哪些方向去優化呢?

  • 方向1:既然它默認會排序,我們不給它排是不是就行啦。
  • 方向2:既然臨時表是影響group by性能的X因素,我們是不是可以不用臨時表?

我們一起來想下,執行group by語句為什么需要臨時表呢?group by的語義邏輯,就是統計不同的值出現的個數。如果這個這些值一開始就是有序的,我們是不是直接往下掃描統計就好了,就不用臨時表來記錄并統計結果啦?

可以有這些優化方案:

  • group by 后面的字段加索引
  • order by null 不用排序
  • 盡量只使用內存臨時表
  • 使用SQL_BIG_RESULT

2.10 delete + in子查詢不走索引!

之前見到過一個生產慢SQL問題,當delete遇到in子查詢時,即使有索引,也是不走索引的。而對應的select + in子查詢,卻可以走索引。

MySQL版本是5.7,假設當前有兩張表account和old_account,表結構如下:

CREATETABLE`old_account`(
`id`int(11)NOTNULLAUTO_INCREMENTCOMMENT'主鍵Id',
`name`varchar(255)DEFAULTNULLCOMMENT'賬戶名',
`balance`int(11)DEFAULTNULLCOMMENT'余額',
`create_time`datetimeNOTNULLCOMMENT'創建時間',
`update_time`datetimeNOTNULLONUPDATECURRENT_TIMESTAMPCOMMENT'更新時間',
PRIMARYKEY(`id`),
KEY`idx_name`(`name`)USINGBTREE
)ENGINE=InnoDBAUTO_INCREMENT=1570068DEFAULTCHARSET=utf8ROW_FORMAT=REDUNDANTCOMMENT='老的賬戶表';

CREATETABLE`account`(
`id`int(11)NOTNULLAUTO_INCREMENTCOMMENT'主鍵Id',
`name`varchar(255)DEFAULTNULLCOMMENT'賬戶名',
`balance`int(11)DEFAULTNULLCOMMENT'余額',
`create_time`datetimeNOTNULLCOMMENT'創建時間',
`update_time`datetimeNOTNULLONUPDATECURRENT_TIMESTAMPCOMMENT'更新時間',
PRIMARYKEY(`id`),
KEY`idx_name`(`name`)USINGBTREE
)ENGINE=InnoDBAUTO_INCREMENT=1570068DEFAULTCHARSET=utf8ROW_FORMAT=REDUNDANTCOMMENT='賬戶表';

執行的SQL如下:

deletefromaccountwherenamein(selectnamefromold_account);

查看執行計劃,發現不走索引:

886eb978-55b5-11ed-a3b6-dac502259ad0.png但是如果把delete換成select,就會走索引。如下:

888be002-55b5-11ed-a3b6-dac502259ad0.png

為什么select + in子查詢會走索引,delete + in子查詢卻不會走索引呢?

我們執行以下SQL看看:

explainselect*fromaccountwherenamein(selectnamefromold_account);
showWARNINGS;//可以查看優化后,最終執行的sql

結果如下:

select`test2`.`account`.`id`AS`id`,`test2`.`account`.`name`AS`name`,`test2`.`account`.`balance`AS`balance`,`test2`.`account`.`create_time`AS`create_time`,`test2`.`account`.`update_time`AS`update_time`from`test2`.`account`
semijoin(`test2`.`old_account`)
where(`test2`.`account`.`name`=`test2`.`old_account`.`name`)

可以發現,實際執行的時候,MySQL對select in子查詢做了優化,把子查詢改成join的方式,所以可以走索引。但是很遺憾,對于delete in子查詢,MySQL卻沒有對它做這個優化。

日常開發中,大家注意一下這個場景哈

審核編輯 :李倩


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • SQL
    SQL
    +關注

    關注

    1

    文章

    789

    瀏覽量

    46700
  • 日志
    +關注

    關注

    0

    文章

    146

    瀏覽量

    11063

原文標題:SQL 優化思路 + 經典案例分析

文章出處:【微信號:DBDevs,微信公眾號:數據分析與開發】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Linux系統性能優化與調試的思路?

    在開發過程中,對系統性能的要求越來越高,在求職的過程中很多崗位不單單是要求驅動開發或者系統開發,會解決系統性能瓶頸問題,往往是加分項,有些公司特別是大廠都會把性能優化單獨劃分一個崗位。
    的頭像 發表于 01-30 16:58 ?617次閱讀
    Linux系統性能<b class='flag-5'>優化</b>與調試的<b class='flag-5'>思路</b>?

    API數據分析:淘寶流量來源分析,渠道優化

    ? 在電商領域,流量來源分析優化營銷策略的核心。淘寶作為中國領先的電商平臺,其流量數據可通過API(應用程序接口)高效獲取和分析。本技術帖將逐步指導您如何利用淘寶API進行流量來源分析
    的頭像 發表于 01-23 13:42 ?174次閱讀
    API數據<b class='flag-5'>分析</b>:淘寶流量來源<b class='flag-5'>分析</b>,渠道<b class='flag-5'>優化</b>!

    Coremark測試集分析與性能優化思路

    一段時間修改輸入(注入錯誤)并重復狀態機操作。將輸入修改回原始形式。 4. 設計意圖 編譯器在不斷改進,在分析代碼方面做得越來越好。而coremark的出現就是為了解決“Dhrystone的主要部分
    發表于 10-24 08:21

    數據庫慢查詢分析SQL優化實戰技巧

    今天,我將分享我在處理數千次數據庫性能問題中積累的實戰經驗,幫助你系統掌握慢查詢分析SQL優化的核心技巧。無論你是剛入門的運維新手,還是有一定經驗的工程師,這篇文章都將為你提供實用的解決方案。
    的頭像 發表于 09-08 09:34 ?981次閱讀

    數據庫性能瓶頸分析SQL優化實戰案例

    作為一名在一線摸爬滾打8年的運維工程師,我見過太多因為數據庫性能問題而半夜被叫醒的場景。今天分享幾個真實的優化案例,希望能幫你避開這些坑。
    的頭像 發表于 08-27 14:31 ?588次閱讀

    SQL 通用數據類型

    SQL 通用數據類型 數據庫表中的每個列都要求有名稱和數據類型。Each column in a database table is required to have a name and a
    的頭像 發表于 08-18 09:46 ?711次閱讀

    Text2SQL準確率暴漲22.6%!3大維度全拆

    摘要 技術背景:Text2SQL 是將自然語言查詢轉為 SQL 的任務,經歷了基于規則、神經網絡、預訓練語言模型、大語言模型四個階段。當前面臨提示優化、模型訓練、推理時增強三大難題,研究
    的頭像 發表于 08-14 11:17 ?703次閱讀
    Text2<b class='flag-5'>SQL</b>準確率暴漲22.6%!3大維度全拆

    數據庫數據恢復—SQL Server數據庫被加密如何恢復數據?

    SQL Server數據庫故障: SQL Server數據庫被加密,無法使用。 數據庫MDF、LDF、log日志文件名字被篡改。
    的頭像 發表于 06-25 13:54 ?672次閱讀
    數據庫數據恢復—<b class='flag-5'>SQL</b> Server數據庫被加密如何恢復數據?

    推進電機端蓋結構的抗沖擊分析優化

    擊附件免費獲取完整資料~~~*附件:推進電機端蓋結構的抗沖擊分析優化.pdf【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第一時間告知,刪除內容!
    發表于 06-23 07:12

    達夢數據庫常用管理SQL命令詳解

    達夢數據庫常用管理SQL命令詳解
    的頭像 發表于 06-17 15:12 ?7181次閱讀
    達夢數據庫常用管理<b class='flag-5'>SQL</b>命令詳解

    大促數據庫壓力激增,如何一眼定位 SQL 執行來源?

    語句成為了性能瓶頸。面對這樣的困境,本篇文章提出了對 SQL 進行 “染色” 的方法來幫助大家 一眼定位問題 SQL,而無需再在多處邏輯中輾轉騰挪 。本文的思路主要受之前郭忠強老師發布的 如何一眼定位
    的頭像 發表于 06-10 11:32 ?565次閱讀
    大促數據庫壓力激增,如何一眼定位 <b class='flag-5'>SQL</b> 執行來源?

    VirtualLab:光柵的優化分析

    光柵是光學工程師使用的最基本的工具。為了設計和分析這類組件,快速物理光學建模和設計軟件VirtualLab Fusion為用戶提供了許多有用的工具。其中包括參數優化,以輕松優化系統,以及參數運行,它
    發表于 05-23 08:49

    VirtualLab 應用:傾斜光柵的參數優化及公差分析

    允許為目標值定義參數約束和權重值。更多信息請參見: 參數優化文檔的介紹 第一級次的參數優化 **結果——公差分析 **
    發表于 05-22 08:52

    20個經典模擬電路及詳細分析答案

    20個經典的模擬電路詳解及分析,希望能幫到在嵌入式領域的工作者。 純分享貼,有需要可以直接下載附件獲取文檔! (如果內容有幫助可以關注、點贊、評論支持一下哦~)
    發表于 04-23 16:32

    RAKsmart服務器SEO優化優勢分析

    在RAKsmart服務器上搭建SEO網站,可以借助其基礎設施和服務特性,從技術層面優化搜索引擎排名。以下是具體優勢及分析,主機推薦小編為您整理發布RAKsmart服務器SEO優化優勢分析
    的頭像 發表于 04-22 10:12 ?664次閱讀