摘要:分頁正反偏移數(shù)據(jù)庫自帶的和的限制條件為我們創(chuàng)建了分頁的查詢方式,但是如果利用不對,性能會出現(xiàn)千倍萬倍差異。這兩條是為查詢最后一頁的翻頁查詢用的。緩存和不精準(zhǔn)數(shù)據(jù)量達(dá)到一定程度的時候,用戶根本就不關(guān)心精準(zhǔn)的總數(shù)沒人關(guān)心差幾個。
為什么會慢?軟件開發(fā)中,常用要用到分頁、計算總數(shù),數(shù)據(jù)量超過千萬、上億的時候,往往count 的需要超過 1s 的執(zhí)行時間,甚至 3-5s,對于一個追求性能的前沿團(tuán)隊來說,這個不能忍??!
mysql 會對所有符合的條件做一次掃描。
select count(*) from table_a where a = "%d" ...
如果 a=%d 的數(shù)據(jù)有 1000W 條,那么數(shù)據(jù)庫就會掃描一次 1000W 條數(shù)據(jù)庫。如果不帶查詢條件,那這種全表掃描將更可怕。
count(*) 和 count(1)、count(0)count(expr) 為統(tǒng)計 expr 不為空的記錄
count(*) 它會計算總行數(shù),不管你字段是否有值都會列入計算范圍。
coount(0),count(1) 沒有差別,它會計算總行數(shù)
Example 1:mysql> explain extended select count(*) from user; ... 1 row in set, 1 warning (0.34 sec) mysql> show warnings; +-------+------+--------------------------------------------------+ | Level | Code | Message | +-------+------+--------------------------------------------------+ | Note | 1003 | select count(0) AS `count(*)` from `user` |Example 2:
mysql> select count(*) from login_log -> ; +----------+ | count(*) | +----------+ | 2513 | +----------+ 1 rows in set (0.00 sec) mysql> select count(logoutTime) from login_log; +-------------------+ | count(logoutTime) | +-------------------+ | 308 | +-------------------+ 1 rows in set (0.00 sec)怎么解決? MyISAM DB
MyISAM 引擎很容易獲得總行數(shù)的統(tǒng)計,查詢速度變得更快。因為 MyISAM 存儲引擎已經(jīng)存儲了表的總行數(shù)。
MyISAM 會為每張表維護(hù)一個 row count 的計數(shù)器,每次新增加一行,這個計數(shù)器就加 1。但是如果有查詢條件,那么 MyISAM 也 game over 了,MyISAM 引擎不支持條件緩存。
On MyISAM, doing a query that does SELECT COUNT(*) FROM {some_table}, is very fast, since MyISAM keeps the information in the index其他 DB 引擎
受到 MySIAM DB 的啟發(fā),我們可以手動維護(hù)總數(shù)緩存在表的索引中了。
如果 ID 連續(xù),且基本不會斷開。直接取最大值 ID
如果表中存在連續(xù)的數(shù)字列并設(shè)為索引,那么通過頁碼即可計算出此字段的范圍,直接作范圍查詢即可:
start = (page-1)*pagesize+1 end = page*pagesize select * from table where id >start and id <=end
涉及到總數(shù)操作,專門維護(hù)一個總數(shù)。新增一個用戶,總數(shù)值加 1, 需要總數(shù)的時候直接拿這個總數(shù), 比如分頁時。如果有多個條件,那么就需要維護(hù)多個總數(shù)列。該方案的擴(kuò)展性更好,隨著用戶表數(shù)量增大, 水平切分用戶表,要獲取用戶總數(shù),直接查詢這個總數(shù)表即可。
分頁正反偏移數(shù)據(jù)庫自帶的 skip 和 limit 的限制條件為我們創(chuàng)建了分頁的查詢方式,但是如果利用不對,性能會出現(xiàn)千倍萬倍差異。
簡單一點描述:limit 100000,20 的意思掃描滿足條件的 100020 行,扔掉前面的 100000 行,返回最后的 20 行,問題就在這里。如果我反向查詢 oder by xx desc limit 0,20,那么我只要索引 20 條數(shù)據(jù)。
mysql> select count(*) from elastic_task_log_copy; +----------+ | count(*) | +----------+ | 1705162 | +----------+ 1 rows in set (2.31 sec)
正向偏移查詢。超級浪費的查詢,需要先 skip 大量的符合條件的查詢。
mysql> select id from elastic_task_log_copy order by id asc limit 1705152,10; +---------+ | id | +---------+ | 1705157 | | 1705158 | | 1705159 | | 1705160 | | 1705161 | | 1705162 | | 1705163 | | 1705164 | | 1705165 | | 1705166 | +---------+ 10 rows in set (2.97 sec)
反向偏移查詢。同樣的查詢結(jié)果,千差萬別的結(jié)果。
mysql> select id from elastic_task_log_copy order by id desc limit 0,10; +---------+ | id | +---------+ | 1705166 | | 1705165 | | 1705164 | | 1705163 | | 1705162 | | 1705161 | | 1705160 | | 1705159 | | 1705158 | | 1705157 | +---------+ 10 rows in set (0.01 sec)
這兩條 sql 是為查詢最后一頁的翻頁 sql 查詢用的。由于一次翻頁往往只需要查詢較小的數(shù)據(jù),如 10 條,但需要向后掃描大量的數(shù)據(jù),也就是越往后的翻頁查詢,掃描的數(shù)據(jù)量會越多,查詢的速度也就越來越慢。
由于查詢的數(shù)據(jù)量大小是固定的,如果查詢速度不受翻頁的頁數(shù)影響,或者影響最低,那么這樣是最佳的效果了(查詢最后最幾頁的速度和開始幾頁的速度一致)。
在翻頁的時候,往往需要對其中的某個字段做排序(這個字段在索引中),升序排序。那么可不可以利用索引的有序性 來解決上面遇到的問題。
比如有 10000 條數(shù)據(jù)需要做分頁,那么前 5000 條做 asc 排序,后 5000 條 desc 排序,在 limit startnum,pagesize 參數(shù)中作出相應(yīng)的調(diào)整。
但是這無疑給應(yīng)用程序帶來復(fù)雜,這條 sql 是用于論壇回復(fù)帖子的 sql,往往用戶在看帖子的時候,一般都是查看前幾頁和最后幾頁,那么在翻頁的時候最后幾頁的翻頁查詢采用 desc 的方式來實現(xiàn)翻頁,這樣就可以較好的提高性能。
游標(biāo):上一頁的最大值或者最小值如果你知道上一頁和下一頁的臨界值,那么翻頁查詢也是信手拈來了,直接就告訴了數(shù)據(jù)庫我的起始查詢在哪,也就沒有什么性能問題了。我更愿意稱這個東西為游標(biāo) (Cursor)。
如果做下拉刷新,那么就直接避免掉分頁的問題了。根據(jù)上一頁的最后一個值去請求新數(shù)據(jù)。
mysql> select id from elastic_task_log_copy where id >= 1699999 limit 10; +---------+ | id | +---------+ | 1699999 | | 1700000 | | 1700001 | | 1700002 | | 1700003 | | 1700004 | | 1700005 | | 1700006 | | 1700007 | | 1700008 | +---------+ 10 rows in set (0.01 sec)緩存和不精準(zhǔn)
數(shù)據(jù)量達(dá)到一定程度的時候,用戶根本就不關(guān)心精準(zhǔn)的總數(shù), 沒人關(guān)心差幾個??纯粗?、微博、微信訂閱號,不精準(zhǔn)的統(tǒng)計到處都是。
如果每次點擊分頁的時候都進(jìn)行一次 count 操作,那速度肯定不會快到哪里去。他們一般也是采用計數(shù)器的辦法。每次新增加一個粉絲,就把值加 1,直接在用戶信息存儲一個總數(shù),一段時間后重新查詢一次,更新該緩存。這樣分頁的時候直接拿這個總數(shù)進(jìn)行分頁,顯示的時候直接顯示模糊之就行。
那為什么微信公眾號的閱讀量只有 10W+ 這個量級呢?100W+ 級去哪了!
其他大神的建議mysql 的數(shù)據(jù)查詢, 大小字段要分開, 這個還是有必要的, 除非一點就是你查詢的都是索引內(nèi)容而不是表內(nèi)容, 比如只查詢 id 等等
查詢速度和索引有很大關(guān)系也就是索引的大小直接影響你的查詢效果, 但是查詢條件一定要建立索引, 這點上注意的是索引字段不能太多,太多索引文件就會很大那樣搜索只能變慢,
查詢指定的記錄最好通過 Id 進(jìn)行 in 查詢來獲得真實的數(shù)據(jù). 其實不是最好而是必須,也就是你應(yīng)該先查詢出復(fù)合的 ID 列表, 通過 in 查詢來獲得數(shù)據(jù)
mysql 千萬級別數(shù)據(jù)肯定是沒問題的, 畢竟現(xiàn)在的流向 web2.0 網(wǎng)站大部分是 mysql 的
合理分表也是必須的, 主要涉及橫向分表與縱向分表, 如把大小字段分開, 或者每 100 萬條記錄在一張表中等等, 像上面的這個表可以考慮通過 uid 的范圍分表, 或者通過只建立索引表, 去掉相對大的字段來處理.
count() 時間比較長, 但是本身是可以緩存在數(shù)據(jù)庫中或者緩存在程序中的, 因為我們當(dāng)時使用在后臺所以第一頁比較慢但是后面比較理想
SELECT id 相對 SELECT 差距還是比較大的, 可以通過上面的方法來使用 SELECT id + SELECT ... IN 查詢來提高性能
必要的索引是必須的, 還是要盡量返回 5%-20% 的結(jié)果級別其中小于 5% 最理想;
mysql 分頁的前面幾頁速度很快, 越向后性能越差, 可以考慮只帶上一頁, 下一頁不帶頁面跳轉(zhuǎn)的方法, 呵呵這個比較垃圾但是也算是個方案, 只要在前后多查一條就能解決了. 比如 100,10 你就差 99,12 呵呵,這樣看看前后是否有結(jié)果.
前臺還是要通過其他手段來處理, 比如 lucene/Solr+mysql 結(jié)合返回翻頁結(jié)果集, 或者上面的分表
總數(shù)可能是存在內(nèi)存中, 這樣分頁計算的時候速度很快。累加操作的時候?qū)?nèi)存中的值加 1??倲?shù)這個值要持久化,還是要存到磁盤上的,也就是數(shù)據(jù)庫中 (可以是關(guān)系型數(shù)據(jù)庫,也可以是 mongdb 這樣的數(shù)據(jù)庫很適合存儲計數(shù))。把總數(shù)放在內(nèi)存中,只是避免頻繁的磁盤 i/0 操作 (操作數(shù)據(jù)庫就要涉及到磁盤讀寫)。
如果你還有更好的建議,請在評論里面告訴我吧。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/17555.html
摘要:場景當(dāng)數(shù)據(jù)兩足夠大的時候,一頁展示不完的時候,我們經(jīng)常會需要分頁的功能。方案三,數(shù)據(jù)比較大,排序需要排序當(dāng)數(shù)據(jù)量比較大的時候,并且需要排序的時候,可以使用這種情況。 場景 當(dāng)數(shù)據(jù)兩足夠大的時候,一頁展示不完的時候,我們經(jīng)常會需要分頁的功能。 方案 方案一,數(shù)據(jù)不是很大 需要排序 s := globalS.Copy() c := s.DB(db).C(collection...
摘要:分表字段的選擇。問題產(chǎn)生之前提到在分表應(yīng)用上線前我們需要將原有表的數(shù)據(jù)遷移到新表中,這樣才能保證業(yè)務(wù)不受影響。雖說凌晨的業(yè)務(wù)量下降,但依然有少部分的請求過來,也會出現(xiàn)各種數(shù)據(jù)庫異常。 showImg(https://segmentfault.com/img/remote/1460000019462791?w=496&h=285); 前言 本篇是上一篇《一次分表踩坑實踐的探討》,所以還沒...
閱讀 781·2023-04-25 16:55
閱讀 2821·2021-10-11 10:59
閱讀 2086·2021-09-09 11:38
閱讀 1800·2021-09-03 10:40
閱讀 1495·2019-08-30 15:52
閱讀 1134·2019-08-30 15:52
閱讀 965·2019-08-29 15:33
閱讀 3505·2019-08-29 11:26