获取网页内容

原创 2007年09月27日 15:21:00
public string get_html(string url)
        {
            HttpWebRequest hwr = (HttpWebRequest)HttpWebRequest.Create(url);     
            hwr.Timeout = 60000;                                                  //服务器超时时间
            /*
            WebProxy proxy = new WebProxy();                                      // 定義一個網關對象
            proxy.Address = new Uri("http://proxy.domain.com:3128");              // 網關服務器:端口
            proxy.Credentials = new NetworkCredential("f3210316", "6978233");      //用戶名,密碼
            hwr.UseDefaultCredentials = true;                                      //啟用網關認証
            hwr.Proxy = proxy;                                                      //設置網關
            */
            HttpWebResponse hwrs;
            try
            {
                hwrs = (HttpWebResponse)hwr.GetResponse();              //取得回應
            }
            catch
            {
                MessageBox.Show("无法连接!");
                return "error";
            }
            //判断HTTP响应状态
            if (hwrs.StatusCode != HttpStatusCode.OK)
            {
                MessageBox.Show("访问失败!");
                hwrs.Close();
                return "error";
            }
            else
            {
                Stream s = hwrs.GetResponseStream();                                  //得到回應的流對象
                StreamReader sr = new StreamReader(s,Encoding.Default);                  //以UTF-8編碼讀取流
                StringBuilder content = new StringBuilder();                          //
                while (sr.Peek() != -1)                                                  //每次讀取一行,直到
                {                                                                      //下一個字節沒有內容
                    content.Append(sr.ReadLine() + "/r/n");                              //返回為止
                }                                                                      //
                return content.ToString();
            }
            //输出所有的Header(当然包括服务器输出的Cookie)
            //for(int ii=0;ii<hwrs.Headers.Count;ii++)
            //{
            //MessageBox.Show(hwrs.Headers.GetKey(ii)+":"+res.Headers[ii]);
            //}
        }
版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

java通过url获取网页内容

在java中,一个url的简单小应用,就是通过url爬取网页的内容。在这里会遇到一个小问题,如果是服务器端禁止抓取,会在控制台报 HTTP 403错误代码。例如CSDN博客网站java.io.IOEx...

C# 获取网页内容代码

  • 2011-12-27 11:10
  • 178KB
  • 下载

获取远程HTML网页内容

  • 2007-08-20 11:53
  • 93KB
  • 下载

HttpClient的get方法获取网页内容

使用 HttpClient 需要以下 6 个步骤: 1. 创建 HttpClient 的实例 2. 创建某种连接方法的实例,在这里是GetMethod。在 GetMethod 的构造函数中传入待连...

获取网页内容

  • 2017-04-25 13:49
  • 16KB
  • 下载

C#获取网页内容

  • 2016-03-02 17:04
  • 321KB
  • 下载

【java爬虫】HttpClient4.5获取网页内容

一.HttpClient获取网页的一般流程              1.创建HttpClient客户端和HttpClientContext对象。 2.创建request请求实例,一般为GET或者P...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)