成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

大數(shù)據(jù)分頁方案

yuanzhanghu / 2804人閱讀

摘要:分頁正反偏移數(shù)據(jù)庫自帶的和的限制條件為我們創(chuàng)建了分頁的查詢方式,但是如果利用不對,性能會出現(xiàn)千倍萬倍差異。這兩條是為查詢最后一頁的翻頁查詢用的。緩存和不精準(zhǔn)數(shù)據(jù)量達(dá)到一定程度的時候,用戶根本就不關(guān)心精準(zhǔn)的總數(shù)沒人關(guān)心差幾個。

軟件開發(fā)中,常用要用到分頁、計算總數(shù),數(shù)據(jù)量超過千萬、上億的時候,往往count 的需要超過 1s 的執(zhí)行時間,甚至 3-5s,對于一個追求性能的前沿團(tuán)隊來說,這個不能忍??!

為什么會慢?

mysql 會對所有符合的條件做一次掃描。

select count(*) from table_a where a = "%d" ...

如果 a=%d 的數(shù)據(jù)有 1000W 條,那么數(shù)據(jù)庫就會掃描一次 1000W 條數(shù)據(jù)庫。如果不帶查詢條件,那這種全表掃描將更可怕。

count(*) 和 count(1)、count(0)

count(expr) 為統(tǒng)計 expr 不為空的記錄

count(*) 它會計算總行數(shù),不管你字段是否有值都會列入計算范圍。

coount(0),count(1) 沒有差別,它會計算總行數(shù)

Example 1:
mysql> explain extended select count(*) from user;
...
1 row in set, 1 warning (0.34 sec)

mysql> show warnings;
+-------+------+--------------------------------------------------+
| Level | Code | Message |
+-------+------+--------------------------------------------------+
| Note | 1003 | select count(0) AS `count(*)` from `user` |
Example 2:
mysql> select count(*) from login_log
 -> ;
+----------+
| count(*) |
+----------+
| 2513 |
+----------+
1 rows in set (0.00 sec)

mysql> select count(logoutTime) from login_log;
+-------------------+
| count(logoutTime) |
+-------------------+
| 308 |
+-------------------+
1 rows in set (0.00 sec)
怎么解決? MyISAM DB

MyISAM 引擎很容易獲得總行數(shù)的統(tǒng)計,查詢速度變得更快。因為 MyISAM 存儲引擎已經(jīng)存儲了表的總行數(shù)。
MyISAM 會為每張表維護(hù)一個 row count 的計數(shù)器,每次新增加一行,這個計數(shù)器就加 1。但是如果有查詢條件,那么 MyISAM 也 game over 了,MyISAM 引擎不支持條件緩存。

On MyISAM, doing a query that does SELECT COUNT(*) FROM {some_table}, is very fast, since MyISAM keeps the information in the index
其他 DB 引擎

受到 MySIAM DB 的啟發(fā),我們可以手動維護(hù)總數(shù)緩存在表的索引中了。

如果 ID 連續(xù),且基本不會斷開。直接取最大值 ID

如果表中存在連續(xù)的數(shù)字列并設(shè)為索引,那么通過頁碼即可計算出此字段的范圍,直接作范圍查詢即可:

start = (page-1)*pagesize+1 
end = page*pagesize 
select * from table where id >start and id <=end 

涉及到總數(shù)操作,專門維護(hù)一個總數(shù)。新增一個用戶,總數(shù)值加 1, 需要總數(shù)的時候直接拿這個總數(shù), 比如分頁時。如果有多個條件,那么就需要維護(hù)多個總數(shù)列。該方案的擴(kuò)展性更好,隨著用戶表數(shù)量增大, 水平切分用戶表,要獲取用戶總數(shù),直接查詢這個總數(shù)表即可。

分頁正反偏移

數(shù)據(jù)庫自帶的 skip 和 limit 的限制條件為我們創(chuàng)建了分頁的查詢方式,但是如果利用不對,性能會出現(xiàn)千倍萬倍差異。
簡單一點描述:limit 100000,20 的意思掃描滿足條件的 100020 行,扔掉前面的 100000 行,返回最后的 20 行,問題就在這里。如果我反向查詢 oder by xx desc limit 0,20,那么我只要索引 20 條數(shù)據(jù)。

Example 3
mysql> select count(*) from elastic_task_log_copy;
+----------+
| count(*) |
+----------+
| 1705162 |
+----------+
1 rows in set (2.31 sec)

正向偏移查詢。超級浪費的查詢,需要先 skip 大量的符合條件的查詢。

mysql> select id from elastic_task_log_copy order by id asc limit 1705152,10;
+---------+
| id |
+---------+
| 1705157 |
| 1705158 |
| 1705159 |
| 1705160 |
| 1705161 |
| 1705162 |
| 1705163 |
| 1705164 |
| 1705165 |
| 1705166 |
+---------+
10 rows in set (2.97 sec)

反向偏移查詢。同樣的查詢結(jié)果,千差萬別的結(jié)果。

mysql> select id from elastic_task_log_copy order by id desc limit 0,10;
+---------+
| id |
+---------+
| 1705166 |
| 1705165 |
| 1705164 |
| 1705163 |
| 1705162 |
| 1705161 |
| 1705160 |
| 1705159 |
| 1705158 |
| 1705157 |
+---------+
10 rows in set (0.01 sec)

這兩條 sql 是為查詢最后一頁的翻頁 sql 查詢用的。由于一次翻頁往往只需要查詢較小的數(shù)據(jù),如 10 條,但需要向后掃描大量的數(shù)據(jù),也就是越往后的翻頁查詢,掃描的數(shù)據(jù)量會越多,查詢的速度也就越來越慢。

由于查詢的數(shù)據(jù)量大小是固定的,如果查詢速度不受翻頁的頁數(shù)影響,或者影響最低,那么這樣是最佳的效果了(查詢最后最幾頁的速度和開始幾頁的速度一致)。

在翻頁的時候,往往需要對其中的某個字段做排序(這個字段在索引中),升序排序。那么可不可以利用索引的有序性 來解決上面遇到的問題。

比如有 10000 條數(shù)據(jù)需要做分頁,那么前 5000 條做 asc 排序,后 5000 條 desc 排序,在 limit startnum,pagesize 參數(shù)中作出相應(yīng)的調(diào)整。

但是這無疑給應(yīng)用程序帶來復(fù)雜,這條 sql 是用于論壇回復(fù)帖子的 sql,往往用戶在看帖子的時候,一般都是查看前幾頁和最后幾頁,那么在翻頁的時候最后幾頁的翻頁查詢采用 desc 的方式來實現(xiàn)翻頁,這樣就可以較好的提高性能。

游標(biāo):上一頁的最大值或者最小值

如果你知道上一頁和下一頁的臨界值,那么翻頁查詢也是信手拈來了,直接就告訴了數(shù)據(jù)庫我的起始查詢在哪,也就沒有什么性能問題了。我更愿意稱這個東西為游標(biāo) (Cursor)。
如果做下拉刷新,那么就直接避免掉分頁的問題了。根據(jù)上一頁的最后一個值去請求新數(shù)據(jù)。

mysql> select id from elastic_task_log_copy where id >= 1699999 limit 10;
+---------+
| id |
+---------+
| 1699999 |
| 1700000 |
| 1700001 |
| 1700002 |
| 1700003 |
| 1700004 |
| 1700005 |
| 1700006 |
| 1700007 |
| 1700008 |
+---------+
10 rows in set (0.01 sec)
緩存和不精準(zhǔn)

數(shù)據(jù)量達(dá)到一定程度的時候,用戶根本就不關(guān)心精準(zhǔn)的總數(shù), 沒人關(guān)心差幾個??纯粗?、微博、微信訂閱號,不精準(zhǔn)的統(tǒng)計到處都是。

如果每次點擊分頁的時候都進(jìn)行一次 count 操作,那速度肯定不會快到哪里去。他們一般也是采用計數(shù)器的辦法。每次新增加一個粉絲,就把值加 1,直接在用戶信息存儲一個總數(shù),一段時間后重新查詢一次,更新該緩存。這樣分頁的時候直接拿這個總數(shù)進(jìn)行分頁,顯示的時候直接顯示模糊之就行。

那為什么微信公眾號的閱讀量只有 10W+ 這個量級呢?100W+ 級去哪了!

其他大神的建議

mysql 的數(shù)據(jù)查詢, 大小字段要分開, 這個還是有必要的, 除非一點就是你查詢的都是索引內(nèi)容而不是表內(nèi)容, 比如只查詢 id 等等

查詢速度和索引有很大關(guān)系也就是索引的大小直接影響你的查詢效果, 但是查詢條件一定要建立索引, 這點上注意的是索引字段不能太多,太多索引文件就會很大那樣搜索只能變慢,

查詢指定的記錄最好通過 Id 進(jìn)行 in 查詢來獲得真實的數(shù)據(jù). 其實不是最好而是必須,也就是你應(yīng)該先查詢出復(fù)合的 ID 列表, 通過 in 查詢來獲得數(shù)據(jù)

mysql 千萬級別數(shù)據(jù)肯定是沒問題的, 畢竟現(xiàn)在的流向 web2.0 網(wǎng)站大部分是 mysql 的

合理分表也是必須的, 主要涉及橫向分表與縱向分表, 如把大小字段分開, 或者每 100 萬條記錄在一張表中等等, 像上面的這個表可以考慮通過 uid 的范圍分表, 或者通過只建立索引表, 去掉相對大的字段來處理.

count() 時間比較長, 但是本身是可以緩存在數(shù)據(jù)庫中或者緩存在程序中的, 因為我們當(dāng)時使用在后臺所以第一頁比較慢但是后面比較理想

SELECT id 相對 SELECT 差距還是比較大的, 可以通過上面的方法來使用 SELECT id + SELECT ... IN 查詢來提高性能

必要的索引是必須的, 還是要盡量返回 5%-20% 的結(jié)果級別其中小于 5% 最理想;

mysql 分頁的前面幾頁速度很快, 越向后性能越差, 可以考慮只帶上一頁, 下一頁不帶頁面跳轉(zhuǎn)的方法, 呵呵這個比較垃圾但是也算是個方案, 只要在前后多查一條就能解決了. 比如 100,10 你就差 99,12 呵呵,這樣看看前后是否有結(jié)果.

前臺還是要通過其他手段來處理, 比如 lucene/Solr+mysql 結(jié)合返回翻頁結(jié)果集, 或者上面的分表

總數(shù)可能是存在內(nèi)存中, 這樣分頁計算的時候速度很快。累加操作的時候?qū)?nèi)存中的值加 1??倲?shù)這個值要持久化,還是要存到磁盤上的,也就是數(shù)據(jù)庫中 (可以是關(guān)系型數(shù)據(jù)庫,也可以是 mongdb 這樣的數(shù)據(jù)庫很適合存儲計數(shù))。把總數(shù)放在內(nèi)存中,只是避免頻繁的磁盤 i/0 操作 (操作數(shù)據(jù)庫就要涉及到磁盤讀寫)。

如果你還有更好的建議,請在評論里面告訴我吧。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/17555.html

相關(guān)文章

  • mgo做分頁的幾種方法

    摘要:場景當(dāng)數(shù)據(jù)兩足夠大的時候,一頁展示不完的時候,我們經(jīng)常會需要分頁的功能。方案三,數(shù)據(jù)比較大,排序需要排序當(dāng)數(shù)據(jù)量比較大的時候,并且需要排序的時候,可以使用這種情況。 場景 當(dāng)數(shù)據(jù)兩足夠大的時候,一頁展示不完的時候,我們經(jīng)常會需要分頁的功能。 方案 方案一,數(shù)據(jù)不是很大 需要排序 s := globalS.Copy() c := s.DB(db).C(collection...

    Terry_Tai 評論0 收藏0
  • 分表后需要注意的二三事

    摘要:分表字段的選擇。問題產(chǎn)生之前提到在分表應(yīng)用上線前我們需要將原有表的數(shù)據(jù)遷移到新表中,這樣才能保證業(yè)務(wù)不受影響。雖說凌晨的業(yè)務(wù)量下降,但依然有少部分的請求過來,也會出現(xiàn)各種數(shù)據(jù)庫異常。 showImg(https://segmentfault.com/img/remote/1460000019462791?w=496&h=285); 前言 本篇是上一篇《一次分表踩坑實踐的探討》,所以還沒...

    dongxiawu 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<