.net批量导入数据

批量导入数据(ADO.NET)
如果你需要在程序中批量插入成千上万行的数据,你会怎么编写代码呢?最近在帮朋友调优这个的时候,总结了几种方法,并对其进行比较。

大概的界面如下,我模拟了一个客户资料表.

 

数据我是放在一个XML文件的,大约6734行。类似下面的格式

<?xml version="1.0" encoding="utf-8" ?>
<root>
<Customers>
  <CustomerID>ALFKI</CustomerID>
  <CompanyName>Sina</CompanyName>
  <ContactName>Maria Anders</ContactName>
  <ContactTitle>Sales Representative</ContactTitle>
  <Address>Obere Str. 57</Address>
  <City>Berlin</City>
  <PostalCode>12209</PostalCode>
  <Country>Germany</Country>
  <Phone>030-0074321</Phone>
  <Fax>030-0076545</Fax>
</Customers>
<Customers>
  <CustomerID>ANATR</CustomerID>
  <CompanyName>Ana Trujillo Emparedados y helados</CompanyName>
  <ContactName>Ana Trujillo</ContactName>
  <ContactTitle>Owner</ContactTitle>
  <Address>Avda. de la Constitución 2222</Address>
  <City>México D.F.</City>
  <PostalCode>05021</PostalCode>
  <Country>Mexico</Country>
  <Phone>(5) 555-4729</Phone>
  <Fax>(5) 555-3745</Fax>
</Customers>
<Customers>
  <CustomerID>ANTON</CustomerID>
  <CompanyName>Antonio Moreno Taquería</CompanyName>
  <ContactName>Antonio Moreno</ContactName>
  <ContactTitle>Owner</ContactTitle>
  <Address>Mataderos  2312</Address>
  <City>México D.F.</City>
  <PostalCode>05023</PostalCode>
  <Country>Mexico</Country>
  <Phone>(5) 555-3932</Phone>
</Customers>
</root>下面首先在服务器稍微准备一下环境

USE [tempdb]
GO

SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER ON
GO
CREATE TABLE [dbo].[Customers](
    [CustomerID] [nchar](5) NOT NULL,
    [CompanyName] [nvarchar](40) NOT NULL,
    [ContactName] [nvarchar](30) NULL,
    [ContactTitle] [nvarchar](30) NULL,
    [Address] [nvarchar](60) NULL,
    [City] [nvarchar](15) NULL,
    [Region] [nvarchar](15) NULL,
    [PostalCode] [nvarchar](10) NULL,
    [Country] [nvarchar](15) NULL,
    [Phone] [nvarchar](24) NULL,
    [Fax] [nvarchar](24) NULL
) ON [PRIMARY]

 

CREATE PROCEDURE [dbo].[usp_InsertCustomer]
    @CustomerID nchar(5),
    @CompanyName nvarchar(40),
    @ContactName nvarchar(30),
    @ContactTitle nvarchar(30),
    @Address nvarchar(60),
    @City nvarchar(15),
    @Region nvarchar(15),
    @PostalCode nvarchar(10),
    @Country nvarchar(15),
    @Phone nvarchar(24),
    @Fax nvarchar(24)
AS

SET NOCOUNT ON

INSERT INTO [dbo].[Customers] (
    [CustomerID],
    [CompanyName],
    [ContactName],
    [ContactTitle],
    [Address],
    [City],
    [Region],
    [PostalCode],
    [Country],
    [Phone],
    [Fax]
) VALUES (
    @CustomerID,
    @CompanyName,
    @ContactName,
    @ContactTitle,
    @Address,
    @City,
    @Region,
    @PostalCode,
    @Country,
    @Phone,
    @Fax
)  我们在tempdb中创建了一个表和一个存储过程 首先,我们把数据加载到一个DataSet        DataSet ds = new DataSet();
        private void btLoadData_Click(object sender, EventArgs e)
        {
            string dataFile = "CustomersData.xml";
            ds.ReadXml(dataFile);
            bindingSource1.DataSource = ds;
            bindingSource1.DataMember = "Customers";
            dataGridView1.DataSource = bindingSource1;
           
        }然后,我们第一个测试代码是遍历这个DataSet,每一行提交一次

        private string GetConnectionString()
        {
            return "server=(local);database=tempdb;integrated security=true;";
        }
        /// <summary>
        /// 直接遍历,一个一个的提交给服务器。时间为265毫秒左右
        /// 每一行都需要写日志
        /// </summary>
        /// <param name="sender"></param>
        /// <param name="e"></param>
        private void btOneByOne_Click(object sender, EventArgs e)
        {
            SqlConnection conn = new SqlConnection(GetConnectionString());
            SqlCommand cmd = conn.CreateCommand();
            cmd.CommandText = "usp_InsertCustomer";
            cmd.CommandType = CommandType.StoredProcedure;
            conn.Open();

            TimeSpan startTime = System.Diagnostics.Process.GetCurrentProcess().UserProcessorTime;

            foreach (DataRow row in ds.Tables[0].Rows)
            {
                cmd.Parameters.Clear();
                SqlParameter[] param = new SqlParameter[]{
                    new SqlParameter("@CustomerID",row[0].ToString()),
                    new SqlParameter("@CompanyName",row[1].ToString()),
                    new SqlParameter("@ContactName",row[2].ToString()),
                    new SqlParameter("@ContactTitle",row[3].ToString()),
                    new SqlParameter("@Address",row[4].ToString()),
                    new SqlParameter("@City",row[5].ToString()),
                    new SqlParameter("@Region",row[6].ToString()),
                    new SqlParameter("@PostalCode",row[7].ToString()),
                    new SqlParameter("@Country",row[8].ToString()),
                    new SqlParameter("@Phone",row[9].ToString()),
                    new SqlParameter("@Fax",row[10].ToString())
                };
                cmd.Parameters.AddRange(param);
                cmd.ExecuteNonQuery();
            }
            conn.Close();


            TimeSpan duration = System.Diagnostics.Process.GetCurrentProcess().UserProcessorTime.Subtract(startTime);
            MessageBox.Show("已经全部插入成功,所用时间为" + duration.Milliseconds.ToString() + "毫秒");
        }接下来,我们使用ADO.NET内置的一个DataAdapter来提交

        /// <summary>
        /// 这是使用Adapter的方式,其实还是遍历,而且语法也没有简单
        /// 同时,速度甚至更慢。时间为650毫秒左右
        /// 每一行都需要写日志
        /// </summary>
        /// <param name="sender"></param>
        /// <param name="e"></param>
        private void btUseAdapter_Click(object sender, EventArgs e)
        {
            SqlDataAdapter adapter = new SqlDataAdapter();
            adapter.AcceptChangesDuringUpdate = false;//为了演示目的,把这个开关关掉,以免它在更新完成后把数据集标记为未更改
            adapter.UpdateBatchSize = 10;//这个好像也没有什么用
           
            SqlConnection conn = new SqlConnection(GetConnectionString());
            SqlCommand insertCommand = conn.CreateCommand();
            insertCommand.CommandText = "usp_InsertCustomer";
            insertCommand.CommandType = CommandType.StoredProcedure;

            insertCommand.UpdatedRowSource = UpdateRowSource.None;

            insertCommand.Parameters.Add("@CustomerID", SqlDbType.NChar, 5, "CustomerID");
            insertCommand.Parameters.Add("@CompanyName", SqlDbType.NVarChar, 40, "CompanyName");
            insertCommand.Parameters.Add("@ContactName", SqlDbType.NVarChar, 30, "ContactName");
            insertCommand.Parameters.Add("@ContactTitle", SqlDbType.NVarChar, 30, "ContactTitle");
            insertCommand.Parameters.Add("@Address", SqlDbType.NVarChar, 60, "Address");
            insertCommand.Parameters.Add("@City", SqlDbType.NVarChar, 15, "City");
            insertCommand.Parameters.Add("@Region", SqlDbType.NVarChar, 15, "Region");
            insertCommand.Parameters.Add("@PostalCode", SqlDbType.NVarChar, 10, "PostalCode");
            insertCommand.Parameters.Add("@Country", SqlDbType.NVarChar, 15, "Country");
            insertCommand.Parameters.Add("@Phone", SqlDbType.NVarChar, 24, "Phone");
            insertCommand.Parameters.Add("@Fax", SqlDbType.NVarChar, 24, "Fax");


            adapter.InsertCommand = insertCommand;
            TimeSpan startTime = System.Diagnostics.Process.GetCurrentProcess().UserProcessorTime;
            adapter.Update(ds,"Customers");
            TimeSpan duration = System.Diagnostics.Process.GetCurrentProcess().UserProcessorTime.Subtract(startTime);
            MessageBox.Show("已经全部插入成功,所用时间为" + duration.Milliseconds.ToString() + "毫秒");

           
           
        }最后,我们找到了最快的方法

        /// <summary>
        /// 使用新的API,批量导入,这个速度很快,大约26毫秒,很显然,这种方式只写一次日志,不会为每一行写日志
        /// </summary>
        /// <param name="sender"></param>
        /// <param name="e"></param>
        private void btBCP_Click(object sender, EventArgs e)
        {
            using (SqlConnection conn = new SqlConnection(GetConnectionString()))
            {
                SqlBulkCopy bcp = new SqlBulkCopy(conn);
                bcp.DestinationTableName = "Customers";
                bcp.BatchSize = 100;//这是批尺寸可以调整
                for (int i = 0; i < 11; i++)
                {
                    bcp.ColumnMappings.Add(i, i);
                }
                TimeSpan startTime = System.Diagnostics.Process.GetCurrentProcess().UserProcessorTime;
                conn.Open();
                bcp.WriteToServer(ds.Tables[0]);
                TimeSpan duration = System.Diagnostics.Process.GetCurrentProcess().UserProcessorTime.Subtract(startTime);
                MessageBox.Show("已经全部插入成功,所用时间为" + duration.Milliseconds.ToString() + "毫秒");

            }
        }还有一种办法是通过在服务器OPENXML,因为XML反复处理效率很差,所以就没有测试了,可以断定它肯定比其他几种还要慢。

另外提示一下,如果不用编程的方式,那么有其他三个可能的途径去做这个事情

1. BCP工具(这是一个命令行,可以做导入和导出,不过来源文件如果不规范,那么可能很费劲)

2. BULK INSERT语句(这是一个T-SQL语句,只能做导入,我们上面使用的SQLBULKCopy应该和他很类似)

3. XML Bulk Load(这是一套COM的对象模型,适合导入XML文档)

还有,在做大量的数据导入和导出时,可以考虑微软为SQL Server配套的SSIS(Integration Service)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在MATLAB中批量导入txt数据,可以使用以下步骤: 1. 创建一个文件夹,并将所有要导入的txt文件放入该文件夹中。 2. 使用dir函数获取文件夹中所有txt文件的列表。例如,使用dir('文件夹路径/*.txt')可以获取该文件夹下所有txt文件的信息。 3. 使用循环遍历每个txt文件,并使用importdata函数将其导入为MATLAB中的数据结构。可以使用以下代码实现: ``` fileList = dir('文件夹路径/*.txt'); for i = 1:length(fileList) fileName = fileList(i).name; filePath = fullfile(fileList(i).folder, fileName); data = importdata(filePath); % 在这里可以对导入数据处理或分析 end ``` 注意,importdata函数可以根据txt文件的格式自动识别并导入数据。如果需要使用特定的导入选项,可以在importdata函数中指定。 这样,就可以使用MATLAB批量导入txt数据了。 补充内容: 如果要导入数据是excel文件,而不是txt文件,可以使用xlsread函数来导入。例如,要导入一个名为"分类数据.xlsx"的excel文件,可以使用以下代码: ``` data = xlsread('文件路径/分类数据.xlsx'); ``` 其中,'文件路径'是excel文件的完整路径。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [matlab常用代码(读取文件、批量导入数据、与或非)](https://blog.csdn.net/FDA_sq/article/details/121658800)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值