服务器抓取网页内容,C# 抓取网页内容

C# 抓取网页内容

1、抓取一般内容

需要三个类:WebRequest、WebResponse、StreamReader

所需命名空间:System.Net、System.IO

核心代码:

1.WebRequest request = WebRequest.Create("http://www.cftea.com/");

2.WebResponse response = request.GetResponse();

3.StreamReader reader = new StreamReader(response.GetResponseStream(), Encoding.GetEncoding("gb2312"));

WebRequest 类的 Create 为静态方法,参数为要抓取的网页的网址;

Encoding 指定编码,Encoding 中有属性 ASCII、UTF32、UTF8 等全球通用的编码,但没有 gb2312 这个编码属性,所以我们使用 GetEncoding 获得 gb2312 编码。

示例:

1.

2.

3.

4.html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">

5.

6.void Page_Load(object sender, EventArgs e)

7.{

8.try

9.{

10.WebRequest request = WebRequest.Create("http://www.cftea.com/");

11.WebResponse response = request.GetResponse();

12.StreamReader reader = new StreamReader(response.GetResponseStream(), Encoding.GetEncoding("gb2312"));

13.

14.tb.Text = reader.ReadToEnd();

15.

16.reader.Close();

17.reader.Dispose();

18.response.Close();

19.}

20.catch (Exception ex)

21.{

22.tb.Text = ex.Message;

23.}

24.}

25.// -->

26.

27.

28.

抓取网页内容 - 千一网络

29.

30.

31.

32.

33.

34.

35.

36.

37.

2 抓取网页内容-图片

需要四个类:WebRequest、WebResponse、Stream、FileStream。

示例:

1.

2.

3.

4.html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">

5.

6.void Page_Load(object sender, EventArgs e)

7.{

8.try

9.{

10.WebRequest request = WebRequest.Create("http://www.cftea.com/images/logo.gif");

11.WebResponse response = request.GetResponse();

12.Stream reader = response.GetResponseStream();

13.

14.FileStream writer = new FileStream("D:\\logo.gif", FileMode.OpenOrCreate, FileAccess.Write);

15.byte[] buff = new byte[512];

16.int c = 0; //实际读取的字节数

17.while ((c=reader.Read(buff, 0, buff.Length)) > 0)

18.{

19.writer.Write(buff, 0, c);

20.}

21.writer.Close();

22.writer.Dispose();

23.

24.reader.Close();

25.reader.Dispose();

26.response.Close();

27.

28.tb.Text = "保存成功!";

29.}

30.catch (Exception ex)

31.{

32.tb.Text = ex.Message;

33.}

34.}

35.// -->

36.

37.

38.

抓取网页图片并保存 - 千一网络

39.

40.

41.

42.

43.

44.

45.

46.

47.

3 抓取网页内容-Post 数据

在抓取网页时,有时候,需要将某些数据通过 Post 的方式发送到服务器,将以下代码添加在网页抓取的程序中,以实现将用户名和密码 Post 到服务器

1.string data = "userName=admin&passwd=admin888";

2.byte[] requestBuffer = System.Text.Encoding.GetEncoding("gb2312").GetBytes(data);

3.

4.request.Method = "POST";

5.request.ContentType = "application/x-www-form-urlencoded";

6.request.ContentLength = requestBuffer.Length;

7.using (Stream requestStream = request.GetRequestStream())

8.{

9.requestStream.Write(requestBuffer, 0, requestBuffer.Length);

10.requestStream.Close();

11.}

12.

13.using (StreamReader reader = new StreamReader(response.GetResponseStream(), Encoding.GetEncoding("gb2312")))

14.{

15.string str = reader.ReadToEnd();

16.reader.Close();

17.}

4  抓取网页内容-防止重定向

在抓取网页时,成功登录服务器应用系统后,应用系统可能会通过 Response.Redirect 将网页进行重定向,如果不需要响应这个重定向,那么,我们就不要把 reader.ReadToEnd() 给 Response.Write 出来,就可以了。

5 抓取网页内容-保持登录状态

利用 Post 数据成功登录服务器应用系统后,就可以抓取需要登录的页面了,那么我们就可能需要在多个 Request 间保持登录状态。

首先,我们要使用 HttpWebRequest,而不是 WebRequest。

与 WebRequest 相比,变化的代码是:

1.HttpWebRequest request = (HttpWebRequest)HttpWebRequest.Create(url);

注意:HttpWebRequest.Create 返回的类型仍是 WebRequest,所以要转化一下。

其次,使用 CookieContainer。

1.System.Net.CookieContainer cc = new System.Net.CookieContainer();

2.request.CookieContainer = cc;

3.request2.CookieContainer = cc;

这样 request 和 request2 之间就使用了相同的 Session,如果 request 登录了,那么 request2 也是登录状态。

最后,如何在不同的页面间使用同一个 CookieContainer。

要在不同的页面间使用同一个 CookieContainer,只有把 CookieContainer 加入 Session。

1.Session.Add("ccc", cc); //存

2.

3.CookieContainer cc = (CookieContainer)Session["ccc"]; //取

5 抓取网页内容-把当前会话带到 WebRequest 中

比如说浏览器 B1 去访问服务器端 S1,这会产生一个会话,而服务器端 S2 再用 WebRequest 去访问服务器端 S1,这又会产生一个会话。现在的需求是让 WebRequest 使用浏览器 B1 与 S1 之间的会话,也就是说要让 S1 认为是 B1 在访问 S1,而不是 S2 在访问 S1。

这就要利用 Cookie 了,先在 S1 中取得与 B1 的 SessionID 的 Cookie,再将这个 Cookie 告诉 S2,S2 再将 Cookie 写在 WebRequest 中。

1.WebRequest request = WebRequest.Create("url");

2.request.Headers.Add(HttpRequestHeader.Cookie, "ASPSESSIONIDSCATBTAD=KNNDKCNBONBOOBIHHHHAOKDM;");

3.WebResponse response = request.GetResponse();

4.StreamReader reader = new StreamReader(response.GetResponseStream(), System.Text.Encoding.GetEncoding("gb2312"));

5.Response.Write(reader.ReadToEnd());

6.reader.Close();

7.reader.Dispose();

8.response.Close();

要说明的是:

·本文并不是 Cookie 欺骗,因为 SessionID 是 S1 告诉 S2 的,并不是 S2 窃取的,虽然有些古怪,但这可能在一些特定的应用系统中会有用。

·S1 必须要向 B1 写 Session,这样 SessionID 才会保存到 Cookie 中,并且 SessionID 才会保持不变。

·在 ASP.NET 中取 Cookie 用 Request.Cookies,本文假设 Cookie 已经取出来。

·不同的服务器端语言,SessionID 在 Cookie 中上名称并不一样,本文是 ASP 的 SessionID。

·S1 可能不仅仅依靠 SessionID 来判断当前登录,它可能还会辅助于 Referer、User-Agent 等,这取决于 S1 端程序的设计。

·其实本文算是本连载中“保持登录状态”的另一种方法。

6 抓取网页内容-如何更改来源 Referer 和 UserAgent

1.HttpWebRequest request = (HttpWebRequest)HttpWebRequest.Create("http://127.0.0.1/index.htm");

2.//request.Headers.Add(HttpRequestHeader.Referer, "http://www.cftea.com/"); // 错误

3.//request.Headers[HttpRequestHeader.Referer] = "http://www.cftea.com/"; // 错误

4.request.Referer = "http://www.cftea.com/"; // 正确

注释掉的两句是不对的,会发生错误:

1.此标头必须使用适当的属性进行修改。

2.参数名: name

UserAgent 类似。

如何抓取网页数据、分析并且去除Html标签C#

string     temp     =     Regex.Replace(sHtml,     "]*>",     "");

由于自己的搜索引擎中做到了这一块内容,所以今天说说如何抓取网页数据、分析并且去除Html标签,给大家提供一个参考。我的平台是Visual Studio2005,C#。—————————————————————割—————————————————————————首先将网页内容整个抓取下来,这个我就不说了,不是本次话题的重点。假设抓取的数据放在RecvBuffer这个byte[]中(数据从网络上传输过来时不是字符串的形式而是byte),那么我们的第一步就是将RecvBuffer转化为String,以便于对其操作,实例如下:

  // 将接收到的数据增加到响应字符串中     strResponse += Encoding.ASCII.GetStringRecvBuffer, 0, nBytes;

strResponse即是保存数据的字符串,此处用系统自带的System.Text.Encoding的方法转化 RecvBuffer,GetString的第一个参数RecvBuffer就是我们的原始数据,即包含需要解码的字节序列的字节数组;第二个参数0代表 第一个要解码的字节的索引,一般就从0开始;第三个参数nBytes为要解码的字节数,可以自己调整。得到了数据的字符串形式,然后可以对网页进行解析了(其实就是对字符串的各种操作和正则表达式的应用)。下面我以几个例子来说明对网页数据的解析:

  // 解析页面,查找链接  // 此处尚需扩展,还有某些形式的链接不被识别  stringstrRef = @'href|HREF|src|SRC|action|ACTION|Action[ ]*=[ ]*[''']['''#>]+[''']';     MatchCollection matches = newRegexstrRef.MatchesstrResponse;     strStatus += '找到: '+matches.Count+' 个链接rn';

上面的例子将网页中的链接解析出来,strRef变量表示了正则表达式的模式,变量matches表示符合匹配的项目的集合,后面的 RegexstrRef.MatchesstrResponse就是创建正则规则使得strResponse里符合strRef模式的字符串都返回。然后 调用matches的变量就可以取得各种信息了。当然,这里只能识别一些基本的链接形式,像script中的链接和一些不带“”的链接都没有被支持,这个的扩展还是蛮简单的。再举几个更简单点的解析的例子,大家学习学习:

  //获取标题     Match TitleMatch = Regex.MatchstrResponse, '

[', RegexOptions.IgnoreCase | RegexOptions.Multiline;     title = TitleMatch.Groups[1].Value;

  //获取描述信息     Match Desc = Regex.MatchstrResponse, '', RegexOptions.IgnoreCase | RegexOptions.Multiline;     strdesc = Desc.Groups[1].Value;

  //获取网页的大小     size = strResponse.Length;

—————————————————————割—————————————————————————好了,下面说一下如何去除Html标签,这个想必有很多初学者很需要。其实还是正则表达式和字符串基本操作的应用,由于这个功能还是比较常用的,所以例子写成了函数,便于调用:

  ///  ///将Html标签转化为空格  ///  ///待转化的字符串  ///经过转化的字符串  privatestringstripHtmlstringstrHtml  {        Regex objRegExp = newRegex'<.>';     stringstrOutput = objRegExp.ReplacestrHtml, '';        strOutput = strOutput.Replace'        strOutput = strOutput.Replace'>', '>';     returnstrOutput;     }

ok,这样一来Html标签就基本没了,但是有些例外会使得去除不干净,所以建议连续两次转化,这样就搞定了。但是还没结束,如果你留意的话,可以看到上 面的函数其实是将Html标签转化为了空格。太多连续的空格会影响之后对字符串的操作。所以再加入这样的语句:

  //把所有空格变为一个空格     Regex r = newRegex@'s+';     wordsOnly = r.ReplacestrResponse, ' ';     wordsOnly.Trim;

好了,大功告成,这里的wordsOnly便是我们最终的成果----去除了Html标签,并去除了多余空格的字符串。希望对大家有用!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值