失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > SQL Server 海量数据导入的最快方法

SQL Server 海量数据导入的最快方法

时间:2020-11-24 05:50:33

相关推荐

SQL Server 海量数据导入的最快方法

下面小编要跟大家分享SQL Server 海量数据导入的最快方法,简单的过程中其实暗藏玄机,还是要细心学习,喜欢还请记得收藏哦!

最近做某项目的数据库分析,要实现对海量数据的导入问题,就是最多把200万条数据一次导入sqlserver中,如果使用普通的insert语句进行写出的话,恐怕没个把小时完不成任务,先是考虑使用bcp,但这是基于命令行的,对用户来说友好性太差,实际不大可能使用;最后决定使用BULK INSERT语句实现,BULK INSERT也可以实现大数据量的导入,而且可以通过编程实现,界面可以做的非常友好,它的速度也很高:导入100万条数据不到20秒中,在速度上恐怕无出其右者。

但是使用这种方式也有它的几个缺点:

1.需要独占接受数据的表

2.会产生大量的日志

3.从中取数据的文件有格式限制

但相对于它的速度来说,这些缺点都是可以克服的,而且你如果愿意牺牲一点速度的话,还可以做更精确的控制,甚至可以控制每一行的插入。

对与产生占用大量空间的日志的情况,我们可以采取在导入前动态更改数据库的日志方式为大容量日志记录恢复模式,这样就不会记录日志了,导入结束后再恢复原来的数据库日志记录方式。

具体的一个语句我们可以这样写:

代码如下:

alter database taxi

set RECOVERY BULK_LOGGED

BULK INSERT taxi..detail FROM e:out.txt

WITH (

DATAFILETYPE = char,

FIELDTERMINATOR = ,,

ROWTERMINATOR = ,

TABLOCK

)

alter database taxi

set RECOVERY FULL

这个语句将从e:导出数据文件到数据库的表中。

如果觉得《SQL Server 海量数据导入的最快方法》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。