
大数据量高效导入数据库(以excel导入sqlserver为例)
最近正在做一个项目,要把excel中的数据导入到sqlserver数据库中,首先想到的就是insert,采用连接Excel对象的Microsoft.ACE.OLEDB.12.0接口引擎连接到excel,然后读取到DataTable中然后每次读取一个Row,insert到数据库表里,但是效率低的让人可怕,一旦数据量过大,卡的要死,我们测试数据是有24万条,文件大小14,249,487
字节(大概14MB),后来经过一番研究发现了SqlBulkCopy,至于SqlBulkCopy的详细介绍就不说了,都是文字描述,微软的直接MSDN就可以了,但是效率确实比insert效率高很多,这里我们就直接上代码吧:
[html] view plain copy
using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Data.OleDb;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Windows.Forms;
namespace 读取excel到datagridview
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}
private void Form1_Load(object sender, EventArgs e)
{
}
/// <summary>
/// 选择文件,并且读取excel中sheet
/// </summary>
/// <param name="sender"></param>
/// <param name="e"></param>
private void button1_Click(object sender, EventArgs e)
{
try
{
//获取Excel文件路径和名称
OpenFileDialog odXls = new OpenFileDialog();
// 指定相应的打开文档的目录
odXls.InitialDirectory = "C://";
// 设置文件格式
odXls.Filter = "Excel files (*.xls)|*.xls|Excel files (*.xlsx)|*.xlsx";
odXls.FilterIndex = 2;
odXls.RestoreDirectory = true;
if (odXls.ShowDialog() == DialogResult.OK)
{
txtFilePath.Text = odXls.FileName;
OleDbConnection oledbConn = null;
string sConnString = "provider=Microsoft.ACE.OLEDB.12.0;data source=" + odXls.FileName + ";Extended Properties=Excel 12.0;Persist Security Info=False";
oledbConn = new OleDbConnection(sConnString);
oledbConn.Open();
DataTable dt = oledbConn.GetOleDbSchemaTable(OleDbSchemaGuid.Tables, new object[] { null, null, null, "TABLE" });
combox1.Items.Clear();
foreach (DataRow dr in dt.Rows)
{
//MessageBox.Show((String)dr["TABLE_NAME"]);
combox1.Items.Add((String)dr["TABLE_NAME"]);
}
if (combox1.Items.Count > 0)
combox1.SelectedIndex = 0;
}
}
catch (Exception Ex)
{
MessageBox.Show(Ex.Message);
richTextBox1.Text = Ex.Message;
}
}
/// <summary>
/// 读取文件具体内容
/// </summary>
/// <param name="sender"></param>
/// <param name="e"></param>
private void button2_Click(object sender, EventArgs e)
{
string connectionString = @"Data Source=702-01;Initial Catalog=DBUser;Integrated Security=True";
OleDbConnection ole = null;
OleDbDataAdapter da = null;
DataTable dt = null;
string strConn = "Provider=Microsoft.ACE.OLEDB.12.0;"
+ "Data Source=" + txtFilePath.Text.Trim() + ";"
+ "Extended Properties=Excel 12.0";
string sTableName = combox1.Text.Trim();
string strExcel = "select * from [" + sTableName + "]";
try
{
ole = new OleDbConnection(strConn);
ole.Open();
da = new OleDbDataAdapter(strExcel, ole);
dt = new DataTable();
da.Fill(dt);
using (System.Data.SqlClient.SqlBulkCopy bcp = new System.Data.SqlClient.SqlBulkCopy(connectionString))
{
//bcp.SqlRowsCopied += new System.Data.SqlClient.SqlRowsCopiedEventHandler(bcp_SqlRowsCopied);
//bcp.SqlRowsCopied += new System.Data.SqlClient.SqlRowsCopiedEventHandler(bcp_SqlRowsCopied);
bcp.BatchSize = 1000;//每次传输的行数
// bcp.NotifyAfter = 1000;//进度提示的行数
bcp.DestinationTableName = "tb_bigdata";//目标表
bcp.WriteToServer(dt);
MessageBox.Show("导入完成!");
}
//为datagridview设置数据源
this.xlsExpData.DataSource = dt;
//设置每一列显示数据模式为AllCells
//for (int i = 0; i < dt.Columns.Count; i++)
//{
// xlsExpData.Columns[i].AutoSizeMode = DataGridViewAutoSizeColumnMode.AllCells;
//}
ole.Close();
}
catch (Exception Ex)
{
MessageBox.Show(Ex.Message);
}
finally
{
if (ole != null)
ole.Close();
}
}
//进度显示
void bcp_SqlRowsCopied(object sender, System.Data.SqlClient.SqlRowsCopiedEventArgs e)
{
this.Text = e.RowsCopied.ToString();
this.Update();
}
}
}
这里我们经过多次测试,将24万条数据导入到sqlserver中,因为目前手边没有可以测试的服务器就临时使用自己的计算机当做服务器进行测试,这里是我的电脑配置:
平均导入时间在20秒左右,上下不差1秒,执行时间和BatchSize设置也有关系,如果设置为100,则需要35秒左右,如果是真正的服务器的话相信执行时间会大大缩短,大家都知道服务器的处理事务能力比普通计算机要强大很多。
当然在本地使用时,效率是比insert高的,但是也有很多限制比如:
1、导入时会有排它意向锁,易死锁。
2、数据只能从服务器本地导入到本地服务器上的数据库中,无法从客户端将数据导入到远程服务器上等等
那么可能大家会担心了,这样也不行啊,客户端不能导入到远程服务器上很不方便的,那么我又研究了一种实现的方式,就是采用数据适配器,DataSet实现数据导入,我们可以将数据文件先导入到DataTable或者DataSet中,然后提交回数据库,这样也实现了数据导入,这样就不会有上边的限制了,至于具体代码就不说了,相信大家应该都会,就是ADO.NET所谓基本对象的应用,如果真的有需要具体代码的可以联系我,但是导入过程中会瞬间部分内存占用,但是占用的内存应该没啥问题,不会有什么影响。
所以我们可以视情况而定,具体选择哪种导入方式,灵活运用,提高工作效率,当然这里由于自身能力原因,暂时只研究了这几种方式,一定还有效率更高的导入方式,这里我会继续研究,如果有新进展一定及时更新,如果有需要请关注或者私信我,大家一起学习,一起进步,希望会帮助到大家。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
Excel 导入数据含缺失值?详解 dropna 函数的功能与实战应用 在用 Python(如 pandas 库)处理 Excel 数据时,“缺失值” 是高频 ...
2025-09-16深入解析卡方检验与 t 检验:差异、适用场景与实践应用 在数据分析与统计学领域,假设检验是验证研究假设、判断数据差异是否 “ ...
2025-09-16CDA 数据分析师:掌控表格结构数据全功能周期的专业操盘手 表格结构数据(以 “行 - 列” 存储的结构化数据,如 Excel 表、数据 ...
2025-09-16MySQL 执行计划中 rows 数量的准确性解析:原理、影响因素与优化 在 MySQL SQL 调优中,EXPLAIN执行计划是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 对象的 text 与 content:区别、场景与实践指南 在 Python 进行 HTTP 网络请求开发时(如使用requests ...
2025-09-15CDA 数据分析师:激活表格结构数据价值的核心操盘手 表格结构数据(如 Excel 表格、数据库表)是企业最基础、最核心的数据形态 ...
2025-09-15Python HTTP 请求工具对比:urllib.request 与 requests 的核心差异与选择指南 在 Python 处理 HTTP 请求(如接口调用、数据爬取 ...
2025-09-12解决 pd.read_csv 读取长浮点数据的科学计数法问题 为帮助 Python 数据从业者解决pd.read_csv读取长浮点数据时的科学计数法问题 ...
2025-09-12CDA 数据分析师:业务数据分析步骤的落地者与价值优化者 业务数据分析是企业解决日常运营问题、提升执行效率的核心手段,其价值 ...
2025-09-12用 SQL 验证业务逻辑:从规则拆解到数据把关的实战指南 在业务系统落地过程中,“业务逻辑” 是连接 “需求设计” 与 “用户体验 ...
2025-09-11塔吉特百货孕妇营销案例:数据驱动下的精准零售革命与启示 在零售行业 “流量红利见顶” 的当下,精准营销成为企业突围的核心方 ...
2025-09-11CDA 数据分析师与战略 / 业务数据分析:概念辨析与协同价值 在数据驱动决策的体系中,“战略数据分析”“业务数据分析” 是企业 ...
2025-09-11Excel 数据聚类分析:从操作实践到业务价值挖掘 在数据分析场景中,聚类分析作为 “无监督分组” 的核心工具,能从杂乱数据中挖 ...
2025-09-10统计模型的核心目的:从数据解读到决策支撑的价值导向 统计模型作为数据分析的核心工具,并非简单的 “公式堆砌”,而是围绕特定 ...
2025-09-10CDA 数据分析师:商业数据分析实践的落地者与价值创造者 商业数据分析的价值,最终要在 “实践” 中体现 —— 脱离业务场景的分 ...
2025-09-10机器学习解决实际问题的核心关键:从业务到落地的全流程解析 在人工智能技术落地的浪潮中,机器学习作为核心工具,已广泛应用于 ...
2025-09-09SPSS 编码状态区域中 Unicode 的功能与价值解析 在 SPSS(Statistical Product and Service Solutions,统计产品与服务解决方案 ...
2025-09-09CDA 数据分析师:驾驭商业数据分析流程的核心力量 在商业决策从 “经验驱动” 向 “数据驱动” 转型的过程中,商业数据分析总体 ...
2025-09-09R 语言:数据科学与科研领域的核心工具及优势解析 一、引言 在数据驱动决策的时代,无论是科研人员验证实验假设(如前文中的 T ...
2025-09-08T 检验在假设检验中的应用与实践 一、引言 在科研数据分析、医学实验验证、经济指标对比等领域,常常需要判断 “样本间的差异是 ...
2025-09-08