C# 抓取网页内容
1、抓取一般内容
需要三个类:WebRequest、WebResponse、StreamReader
所需命名空间:System.Net、System.IO
核心代码:
1.WebRequest request = WebRequest.Create("http://www.cftea.com/");
2.WebResponse response = request.GetResponse();
3.StreamReader reader = new StreamReader(response.GetResponseStream(), Encoding.GetEncoding("gb2312"));
WebRequest 类的 Create 为静态方法,参数为要抓取的网页的网址;
Encoding 指定编码,Encoding 中有属性 ASCII、UTF32、UTF8 等全球通用的编码,但没有 gb2312 这个编码属性,所以我们使用 GetEncoding 获得 gb2312 编码。
示例:
1.
2.
3.
4.html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
5.
6.void Page_Load(object sender, EventArgs e)
7.{
8.try
9.{
10.WebRequest request = WebRequest.Create("http://www.cftea.com/");
11.WebResponse response = request.GetResponse();
12.StreamReader reader = new StreamReader(response.GetResponseStream(), Encoding.GetEncoding("gb2312"));
13.
14.tb.Text = reader.ReadToEnd();
15.
16.reader.Close();
17.reader.Dispose();
18.response.Close();
19.}
20.catch (Exception ex)
21.{
22.tb.Text = ex.Message;
23.}
24.}
25.// -->
26.
27.
28.
抓取网页内容 - 千一网络29.
30.
31.
32.
33.
34.
35.
36.
37.
2 抓取网页内容-图片
需要四个类:WebRequest、WebResponse、Stream、FileStream。
示例:
1.
2.
3.
4.html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
5.
6.void Page_Load(object sender, EventArgs e)
7.{
8.try
9.{
10.WebRequest request = WebRequest.Create("http://www.cftea.com/images/logo.gif");
11.WebResponse response = request.GetResponse();
12.Stream reader = response.GetResponseStream();
13.
14.FileStream writer = new FileStream("D:\\logo.gif", FileMode.OpenOrCreate, FileAccess.Write);
15.byte[] buff = new byte[512];
16.int c = 0; //实际读取的字节数
17.while ((c=reader.Read(buff, 0, buff.Length)) > 0)
18.{
19.writer.Write(buff, 0, c);
20.}
21.writer.Close();
22.writer.Dispose();
23.
24.reader.Close();
25.reader.Dispose();
26.response.Close();
27.
28.tb.Text = "保存成功!";
29.}
30.catch (Exception ex)
31.{
32.tb.Text = ex.Message;
33.}
34.}
35.// -->
36.
37.
38.
抓取网页图片并保存 - 千一网络39.
40.
41.
42.
43.
44.
45.
46.
47.
3 抓取网页内容-Post 数据
在抓取网页时,有时候,需要将某些数据通过 Post 的方式发送到服务器,将以下代码添加在网页抓取的程序中,以实现将用户名和密码 Post 到服务器
1.string data = "userName=admin&passwd=admin888";
2.byte[] requestBuffer = System.Text.Encoding.GetEncoding("gb2312").GetBytes(data);
3.
4.request.Method = "POST";
5.request.ContentType = "application/x-www-form-urlencoded";
6.request.ContentLength = requestBuffer.Length;
7.using (Stream requestStream = request.GetRequestStream())
8.{
9.requestStream.Write(requestBuffer, 0, requestBuffer.Length);
10.requestStream.Close();
11.}
12.
13.using (StreamReader reader = new StreamReader(response.GetResponseStream(), Encoding.GetEncoding("gb2312")))
14.{
15.string str = reader.ReadToEnd();
16.reader.Close();
17.}
4 抓取网页内容-防止重定向
在抓取网页时,成功登录服务器应用系统后,应用系统可能会通过 Response.Redirect 将网页进行重定向,如果不需要响应这个重定向,那么,我们就不要把 reader.ReadToEnd() 给 Response.Write 出来,就可以了。
5 抓取网页内容-保持登录状态
利用 Post 数据成功登录服务器应用系统后,就可以抓取需要登录的页面了,那么我们就可能需要在多个 Request 间保持登录状态。
首先,我们要使用 HttpWebRequest,而不是 WebRequest。
与 WebRequest 相比,变化的代码是:
1.HttpWebRequest request = (HttpWebRequest)HttpWebRequest.Create(url);
注意:HttpWebRequest.Create 返回的类型仍是 WebRequest,所以要转化一下。
其次,使用 CookieContainer。
1.System.Net.CookieContainer cc = new System.Net.CookieContainer();
2.request.CookieContainer = cc;
3.request2.CookieContainer = cc;
这样 request 和 request2 之间就使用了相同的 Session,如果 request 登录了,那么 request2 也是登录状态。
最后,如何在不同的页面间使用同一个 CookieContainer。
要在不同的页面间使用同一个 CookieContainer,只有把 CookieContainer 加入 Session。
1.Session.Add("ccc", cc); //存
2.
3.CookieContainer cc = (CookieContainer)Session["ccc"]; //取
5 抓取网页内容-把当前会话带到 WebRequest 中
比如说浏览器 B1 去访问服务器端 S1,这会产生一个会话,而服务器端 S2 再用 WebRequest 去访问服务器端 S1,这又会产生一个会话。现在的需求是让 WebRequest 使用浏览器 B1 与 S1 之间的会话,也就是说要让 S1 认为是 B1 在访问 S1,而不是 S2 在访问 S1。
这就要利用 Cookie 了,先在 S1 中取得与 B1 的 SessionID 的 Cookie,再将这个 Cookie 告诉 S2,S2 再将 Cookie 写在 WebRequest 中。
1.WebRequest request = WebRequest.Create("url");
2.request.Headers.Add(HttpRequestHeader.Cookie, "ASPSESSIONIDSCATBTAD=KNNDKCNBONBOOBIHHHHAOKDM;");
3.WebResponse response = request.GetResponse();
4.StreamReader reader = new StreamReader(response.GetResponseStream(), System.Text.Encoding.GetEncoding("gb2312"));
5.Response.Write(reader.ReadToEnd());
6.reader.Close();
7.reader.Dispose();
8.response.Close();
要说明的是:
·本文并不是 Cookie 欺骗,因为 SessionID 是 S1 告诉 S2 的,并不是 S2 窃取的,虽然有些古怪,但这可能在一些特定的应用系统中会有用。
·S1 必须要向 B1 写 Session,这样 SessionID 才会保存到 Cookie 中,并且 SessionID 才会保持不变。
·在 ASP.NET 中取 Cookie 用 Request.Cookies,本文假设 Cookie 已经取出来。
·不同的服务器端语言,SessionID 在 Cookie 中上名称并不一样,本文是 ASP 的 SessionID。
·S1 可能不仅仅依靠 SessionID 来判断当前登录,它可能还会辅助于 Referer、User-Agent 等,这取决于 S1 端程序的设计。
·其实本文算是本连载中“保持登录状态”的另一种方法。
6 抓取网页内容-如何更改来源 Referer 和 UserAgent
1.HttpWebRequest request = (HttpWebRequest)HttpWebRequest.Create("http://127.0.0.1/index.htm");
2.//request.Headers.Add(HttpRequestHeader.Referer, "http://www.cftea.com/"); // 错误
3.//request.Headers[HttpRequestHeader.Referer] = "http://www.cftea.com/"; // 错误
4.request.Referer = "http://www.cftea.com/"; // 正确
注释掉的两句是不对的,会发生错误:
1.此标头必须使用适当的属性进行修改。
2.参数名: name
UserAgent 类似。
如何抓取网页数据、分析并且去除Html标签C#
string temp = Regex.Replace(sHtml, "]*>", "");
由于自己的搜索引擎中做到了这一块内容,所以今天说说如何抓取网页数据、分析并且去除Html标签,给大家提供一个参考。我的平台是Visual Studio2005,C#。—————————————————————割—————————————————————————首先将网页内容整个抓取下来,这个我就不说了,不是本次话题的重点。假设抓取的数据放在RecvBuffer这个byte[]中(数据从网络上传输过来时不是字符串的形式而是byte),那么我们的第一步就是将RecvBuffer转化为String,以便于对其操作,实例如下:
// 将接收到的数据增加到响应字符串中 strResponse += Encoding.ASCII.GetStringRecvBuffer, 0, nBytes;
strResponse即是保存数据的字符串,此处用系统自带的System.Text.Encoding的方法转化 RecvBuffer,GetString的第一个参数RecvBuffer就是我们的原始数据,即包含需要解码的字节序列的字节数组;第二个参数0代表 第一个要解码的字节的索引,一般就从0开始;第三个参数nBytes为要解码的字节数,可以自己调整。得到了数据的字符串形式,然后可以对网页进行解析了(其实就是对字符串的各种操作和正则表达式的应用)。下面我以几个例子来说明对网页数据的解析:
// 解析页面,查找链接 // 此处尚需扩展,还有某些形式的链接不被识别 stringstrRef = @'href|HREF|src|SRC|action|ACTION|Action[ ]*=[ ]*[''']['''#>]+[''']'; MatchCollection matches = newRegexstrRef.MatchesstrResponse; strStatus += '找到: '+matches.Count+' 个链接rn';
上面的例子将网页中的链接解析出来,strRef变量表示了正则表达式的模式,变量matches表示符合匹配的项目的集合,后面的 RegexstrRef.MatchesstrResponse就是创建正则规则使得strResponse里符合strRef模式的字符串都返回。然后 调用matches的变量就可以取得各种信息了。当然,这里只能识别一些基本的链接形式,像script中的链接和一些不带“”的链接都没有被支持,这个的扩展还是蛮简单的。再举几个更简单点的解析的例子,大家学习学习:
//获取标题 Match TitleMatch = Regex.MatchstrResponse, '
[', RegexOptions.IgnoreCase | RegexOptions.Multiline; title = TitleMatch.Groups[1].Value;//获取描述信息 Match Desc = Regex.MatchstrResponse, '', RegexOptions.IgnoreCase | RegexOptions.Multiline; strdesc = Desc.Groups[1].Value;
//获取网页的大小 size = strResponse.Length;
—————————————————————割—————————————————————————好了,下面说一下如何去除Html标签,这个想必有很多初学者很需要。其实还是正则表达式和字符串基本操作的应用,由于这个功能还是比较常用的,所以例子写成了函数,便于调用:
/// ///将Html标签转化为空格 /// ///待转化的字符串 ///经过转化的字符串 privatestringstripHtmlstringstrHtml { Regex objRegExp = newRegex'<.>'; stringstrOutput = objRegExp.ReplacestrHtml, ''; strOutput = strOutput.Replace' strOutput = strOutput.Replace'>', '>'; returnstrOutput; }
ok,这样一来Html标签就基本没了,但是有些例外会使得去除不干净,所以建议连续两次转化,这样就搞定了。但是还没结束,如果你留意的话,可以看到上 面的函数其实是将Html标签转化为了空格。太多连续的空格会影响之后对字符串的操作。所以再加入这样的语句:
//把所有空格变为一个空格 Regex r = newRegex@'s+'; wordsOnly = r.ReplacestrResponse, ' '; wordsOnly.Trim;
好了,大功告成,这里的wordsOnly便是我们最终的成果----去除了Html标签,并去除了多余空格的字符串。希望对大家有用!