当前位置:首页 >热点 >实现SQL Server海量数据导入的好用方案 恐怕没个把小时完不成任务

实现SQL Server海量数据导入的好用方案 恐怕没个把小时完不成任务

2024-06-30 19:04:45 [百科] 来源:避面尹邢网

实现SQL Server海量数据导入的实现好用方案

作者:佚名 数据库 SQL Server 我们今天主要向大家讲述的是实现SQL Server海量数据导入的最快最好用的实际操作方法,以下就是海好用文章的主要内容的详细解析。

以下的量数文章主要向大家讲解的是SQL Server海量数据导入的最快***用的实际操作方法,在实际操作中尼是据导否遇到过SQL Server海量数据导入这一要求,以下的实现文章主要向大家讲述的是实现其实际操作的具体方案。

这篇论坛文章(赛迪网技术社区)详细讲解了SQL Server海量数据导入的海好用最快方法,更多内容请参考下文:

实现SQL Server海量数据导入的好用方案 恐怕没个把小时完不成任务

最近做某项目的量数数据库分析,要实现对海量数据的据导导入问题,就是实现最多把200万条数据一次导入sqlserver中,如果使用普通的海好用insert语句进行写出的话,恐怕没个把小时完不成任务,量数先是据导考虑使用bcp,但这是实现基于命令行的,对用户来说友好性太差,海好用实际不大可能使用;***决定使用BULK INSERT语句实现。量数

实现SQL Server海量数据导入的好用方案 恐怕没个把小时完不成任务

BULK INSERT也可以实现大数据量的导入,而且可以通过编程实现,界面可以做的非常友好,它的速度也很高:导入100万条数据不到20秒中,在速度上恐怕无出其右者。

实现SQL Server海量数据导入的好用方案 恐怕没个把小时完不成任务

但是使用这种方式也有它的几个缺点:

1.需要独占接受数据的表

2.会产生大量的日志

3.从中取数据的文件有格式限制

但相对于它的速度来说,这些缺点都是可以克服的,而且你如果愿意牺牲一点速度的话,还可以做更精确的控制,甚至可以控制每一行的插入。

对与产生占用大量空间的日志的情况,我们可以采取在导入前动态更改数据库的日志方式为大容量日志记录恢复模式,这样就不会记录日志了,导入结束后再恢复原来的数据库日志记录方式。

具体的一个语句我们可以这样写:

 

  1. alter database taxi  
  2. set RECOVERY BULK_LOGGED  
  3. BULK INSERT taxi..detail FROM 'e:\out.txt'  
  4. WITH (  
  5. ?? DATAFILETYPE = 'char',  
  6. ?? FIELDTERMINATOR = ',',  
  7. ?? ROWTERMINATOR = '\n',  
  8. ?TABLOCK  
  9. )  
  10. alter database taxi  
  11. set RECOVERY FULL  

 

 

这个语句将从e:\out.txt导出数据文件到数据库taxi的detail表中。
 

以上的相关内容就是对讲解SQL Server海量数据导入的最快方法的介绍,望你能有所收获。

【编辑推荐】

  1. SQL Server数据整理的操作方案描述
  2. SQL Server 易混淆的一些数据类型有哪些?
  3. SQL Server 日期操作全接触,嘻嘻
  4. 对SQL Server 2005 BI的描述
  5. SQL server DateDiff 函数语法中的命名参数
责任编辑:佚名 来源: 广州日报 SQL Server海量数据导入

(责任编辑:焦点)

    推荐文章
    热点阅读