利用System.IO.Compression 压缩,解压文件网上能搜索到很多文档了, 但对字符串直接压缩还是很少, 这种压缩还是在webservice返回大量数据时还是用用途的
看code吧:
using System.Text;
using System.IO.Compression;
public static string CompressString(string str)
{
byte[] buffer = Encoding.Unicode.GetBytes(str);
MemoryStream ms = new MemoryStream();
GZipStream zip = new GZipStream(ms, CompressionMode.Compress, true);
zip.Write(buffer, 0, buffer.Length);
zip.Close();
ms.Position = 0;
byte[] zipBuffer = new byte[ms.Length];
ms.Read(zipBuffer, 0, zipBuffer.Length);
ms.Close();
string zipstr =Convert.ToBase64String(zipBuffer);
return zipstr;
}
public static string DeCompressString(string str)
{
byte[] buffer = Convert.FromBase64String(str);
MemoryStream ms = new MemoryStream();
ms.Write(buffer, 0, buffer.Length);
ms.Position = 0;
GZipStream zip = new GZipStream(ms, CompressionMode.Decompress, true);
byte[] zipBuffer = new byte[1024];
MemoryStream ms2 = new MemoryStream();
while (true)
{
int bytesRead = zip.Read(zipBuffer, 0, zipBuffer.Length);
if (bytesRead == 0)
{
break;
}
ms2.Write(zipBuffer, 0, bytesRead);
}
zip.Close();
string zipstr = Encoding.Unicode.GetString(ms2.ToArray(), 0, (int)ms2.Length);
return zipstr;
}
特别提示, 如果压缩方法直接返回byte[], 会节省一些空间, 而且byte[]可以直接存储到sql server binary数据类型里, 但考虑到webservcie传输, 我又把他转成string, 用Base64转成string会多花销一些空间, 但相比为压缩的string, 已经小了很多了。 如果用别的编码(比如utf8, unioncode) 会产生一些问题, 我想是因为一些特殊字符处理的问题吧,网上搜索base64编码是解决字符是7位的带符号位, 可能是这个问题