mongodb 数据全量加载到 redis,怎样提升速度?
source link: https://www.v2ex.com/t/838648
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
假设 50w 数据,db 全量查询,再往 redis 里面塞,内存可能会爆。 db 分页查询,需要先 count ,是个耗时的操作,而且分批次插入,最终结果和数据库不一定一致(中间可能有其他删除修改的操作)。
比如布隆过滤器,一般是怎么导入亿级数据的?
hidemyself 17 小时 18 分钟前
wqhui 16 小时 26 分钟前
git00ll 13 小时 47 分钟前
另外 redis 写时,开 20-30 线程一起写会快很多。
wellsc 13 小时 45 分钟前
hopingtop 13 小时 34 分钟前
q1angch0u 12 小时 1 分钟前
visitant 10 小时 49 分钟前
Mithril 10 小时 36 分钟前
然后你去查在这时间点以后的 change stream ,按顺序拉到 redis 里。MongoDB 已经给你这功能了,就不要再用 binlog 了。
从此以后用 change stream 同步修改,就可以保证大部分时候都是一致的。
bthulu 1 小时 55 分钟前
leebs 21 分钟前
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK