失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > mysql 5亿数据 查询_MySQL 亿级数据数据库优化方案测试-银行交易流水记录的查询...

mysql 5亿数据 查询_MySQL 亿级数据数据库优化方案测试-银行交易流水记录的查询...

时间:2023-07-08 22:26:44

相关推荐

mysql 5亿数据 查询_MySQL 亿级数据数据库优化方案测试-银行交易流水记录的查询...

原标题:MySQL 亿级数据数据库优化方案测试-银行交易流水记录的查询

作者:逸宸a

链接:/p/cbdef47fb837

对MySQL的性能和亿级数据的处理方法思考,以及分库分表到底该如何做,在什么场景比较合适?

比如银行交易流水记录的查询

限盐少许,上实际实验过程,以下是在实验的过程中做一些操作,以及踩过的一些坑,我觉得坑对于读者来讲是非常有用的。

首先:建立一个现金流量表,交易历史是各个金融体系下使用率最高,历史存留数据量最大的数据类型。现金流量表的数据搜索,可以根据时间范围,和个人,以及金额进行搜索。

-- 建立一张 现金流量表

DROPTABLEIFEXISTS`yun_cashflow`;

CREATETABLE`yun_cashflow`(

`id`bigint(20) NOTNULLAUTO_INCREMENT,

`userid`int(11) DEFAULTNULL,

`type`int(11) DEFAULTNULLCOMMENT1、入账,2提现,

`operatoruserid`int(11) DEFAULTNULLCOMMENT操作员ID,

`withdrawdepositid`bigint(20) DEFAULTNULLCOMMENT提现ID,

`money`doubleDEFAULTNULLCOMMENT钱数,

`runid`bigint(20) DEFAULTNULLCOMMENT工单ID,

`createtime`timestampNULLDEFAULTCURRENT_TIMESTAMPONUPDATECURRENT_TIMESTAMP,

PRIMARY KEY(`id`)

) ENGINE=InnoDBAUTO_INCREMENT=63DEFAULTCHARSET=utf8;

然后开始造1个亿的数据进去。

-- 循环插入

dropPROCEDUREtest_insert;

DELIMITER;;

CREATEPROCEDUREtest_insert()

begin

declarenumint;

setnum=0;

while num < 10000 do

insertintoyun_cashflow(userid,type,operatoruserid,withdrawdepositid,money) values(FLOOR(7+ (RAND() * 6))+FLOOR(22+ (RAND() * 9)),1,FLOOR(97+ (RAND()

* 6))+FLOOR(2+ (RAND() * 9)),FLOOR(17+ (RAND() * 6))+FLOOR(2+ (RAND() * 9)),FLOOR(5+ (RAND() * 6))+FLOOR(2+ (RAND() * 9)));

setnum=num+1;

endwhile;

END;;

calltest_insert();

坑一:

这个存储过程建立好了之后,发现插入数据特别的慢,一天一晚上也插入不到100万条数据,平均每秒40~60条数据,中间我停过几次,以为是随机函数的问题,都变成常数,但效果一样,还是很慢,当时让我对这个MySQL数据库感觉到悲

如果觉得《mysql 5亿数据 查询_MySQL 亿级数据数据库优化方案测试-银行交易流水记录的查询...》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。