c# DataTable.Copy()的性能问题
DataTable在程序中能带来很大便捷,但是其相应问题也有不少,尤其在高并发状态下。本文主要阐明DataTable.Copy()方法带来的性能问题。
日常使用Copy函数主要用于对缓存中的数据深拷贝(不是拷贝对象的引用)并且保证数据相对安全。
示例
static void Main(string[] args)
{
DataTable dt = new DataTable();
dt.Columns.Add("Id", Type.GetType("System.String"));
dt.Columns.Add("Name", Type.GetType("System.String"));
for (int i = 0; i < 10; i++)
{
var row = dt.NewRow();
row["Id"] = i;
row["Name"] = "name" + i;
dt.Rows.Add(row);
}
var dtDeepCopy = dt.Copy();//深拷贝
var dtShallowCopy = dt;//浅拷贝
foreach (DataRow row in dt.Rows)
{
Console.WriteLine("dt:Id" + row["Id"] + " Name:" + row["Name"]);
row["Name"] = "newName" + row["Id"];
Console.WriteLine("dt:Id" + row["Id"] + " Name:" + row["Name"]);
}
for (int i = 0; i < dt.Rows.Count; i++)
{
var rowDeepCopy = dtDeepCopy.Rows[i];
var rowShallowCopy = dtShallowCopy.Rows[i];
Console.WriteLine("dtDeepCopy:Id" + rowDeepCopy["Id"] + " Name:" + rowDeepCopy["Name"]);
Console.WriteLine("dtShallowCopy:Id" + rowShallowCopy["Id"] + " Name:" + rowShallowCopy["Name"]);
}
}
运行结果
上述代码中简单描述了浅拷贝与深拷贝的差别,深拷贝相当于在内存中重新分配一片空间给新的对象,分配空间的同时必然带来CPU的消耗。当并发量达到一定规模时,会给服务器带来不可忽视的压力。所以如非必要,减少使用DataTable.Copy的方式来进行数据复制。对于重要的数据(缓存中的字典数据)可以考虑使用集合形式进行深拷贝,性能相对于DataTable要好很多,可自行实验。