C#实现web信息自动抓取

转载 2007年09月22日 10:39:00

背景

随着Internet的普及,网络信息正以极高的速度增长,在这么多数据中找到自己需要的信息是一件很繁琐的事情,找到需要的信息后如何获取也是件麻烦的事。这就需要Internet信息抓取程序来代替人工的操作。

所谓Internet信息抓取程序,就是程序会按照用户的关键词或关键网站来收集相应的信息,并提供给用户想要的信息格式。

 

信息量的增加会带来信息网站发布人员工作量的剧增,为实现信息发布系统实现信息自

动发布、减少工作人员工作量、即时跟踪最新信息,就需要自动信息提供程序,因此Internet信息抓取程序应运而生。

 

目标

 

实现自定义网站信息分类抓取,存入本地数据库、生成静态页面或其它用户定义的信息结构,并下载与信息相关的多媒体文件。

 

开发

 

l         目标站点结构分析

本步骤是准确抓取信息个关键。

首先要选择更新频率高的页面做为抓取地址,然后分析要抓取内容页面url特点。

然后分析要抓取信息页面的元素特性,比如标题位置,内容位置 等,得到定位标记点。

将以上信息写成自己的配置文件或存到数据库中。

每个网站都需要分析,写出单独的配置文件,供抓取程序使用。

 

l         信息提取

根据配置文件取得要抓取页面url,使用HttpWebRequest类获取内容:

//获取http页面函数

        public string Get_Http(string a_strUrl,int timeout)

        {

            string strResult ;        

 

            try

            {

HttpWebRequest myReq = (HttpWebRequest)HttpWebRequest.Create(a_strUrl) ;

                myReq.Timeout = timeout;

                HttpWebResponse HttpWResp = (HttpWebResponse)myReq.GetResponse();

           

                Stream myStream = HttpWResp.GetResponseStream () ;

 

                StreamReader sr = new StreamReader(myStream , Encoding.Default);

                StringBuilder strBuilder = new StringBuilder();

                while (-1 != sr.Peek())

                {

                    strBuilder.Append(sr.ReadLine()+"/r/n");

                }

 

                strResult = strBuilder.ToString();

            }

            catch(Exception exp)

            {

                strResult = "错误:" + exp.Message ;

            }

 

            return strResult ;

 

        }

获取页面内容后,分析页面中连接地址取到要抓取的url:

//处理页面标题和链接

        public string SniffWebUrl( string urlStr,string blockB,string blockE )

        {      

            string urlch1 = "";

            string urlch2 = "";                   

            int end_n1 = 0;

            int end_nums = 0;

            int end_nums1 = 0;

            int end_nums2 = 0;

            int end_nums3     = 0;           

            string reUTStr = "";

            string reTitle = "";

            string ret = "";          

            try

            {

                int pos01 = urlStr.IndexOf( "." );

                int pos02 = urlStr.LastIndexOf( "/" );

                if( pos01 < 0 )

                {

                    return "";

                }

                if( pos02 < 0 )

                {

                    return "";

                }

                int pos03 = urlStr.IndexOf( "/",pos01 );

                if ( pos03 < 0 )

                {

                    urlch1 = urlStr;

                    urlch2 = urlStr;

                }

                else

                {

                    urlch1 = urlStr.Substring( 0,pos03 );

                    urlch2 = urlStr.Substring( 0,pos02 );

                }

 

                string tmpAllStr = new PublicFun().Get_Http( urlStr ,time1);

 

                int pos1 = tmpAllStr.IndexOf( blockB );

                int pos2 = tmpAllStr.IndexOf( blockE,pos1 + blockB.Length );

                if ( pos1>0 && pos2>0 && pos2>pos1 )

                {

                    ret = tmpAllStr.Substring( pos1 + blockB.Length,pos2 - pos1 - blockB.Length );

                    ret = ret.Substring( ret.IndexOf( "<" ));

                    while( ret.IndexOf( "<A" ) >= 0 )

                    {

                        ret = ret.Substring( 0,ret.IndexOf( "<A" ) ) + "<a" + ret.Substring( ret.IndexOf( "<A" ) + 2 );

                    }

                    while( ret.IndexOf( "</A" ) >=0 )

                    {

                        ret = ret.Substring( 0,ret.IndexOf( "</A" ) ) + "</a" + ret.Substring( ret.IndexOf( "</A" ) + 3 );

                    }

                    while( ret.IndexOf( "Href=" ) >=0 )

                    {

                        ret = ret.Substring( 0,ret.IndexOf( "Href=" )) + "href=" + ret.Substring( ret.IndexOf( "Href=" ) + 5 );

                    }

                    while( ret.IndexOf( "HREF=" ) >=0 )

                    {

                        ret = ret.Substring( 0,ret.IndexOf( "HREF=" )) + "href=" + ret.Substring( ret.IndexOf( "HREF=" ) + 5 );

                    }

                    while( ret.IndexOf( "href='" ) >=0 )

                    {

                        ret = ret.Substring( 0,ret.IndexOf( "href='" )) + "href=/"" + ret.Substring( ret.IndexOf( "href='" ) + 6 ); 

 

相关文章推荐

C#实现web信息自动抓取

  • 2011-06-20 09:21
  • 137KB
  • 下载

C#几种模拟自动登录和提交POST信息的实现方法

网页自动登录(提交Post内容)的用途很多,如验证身份、程序升级、网络投票等,以下是用C#实现的方法。        网页自动登录和提交POST信息的核心就是分析网页的源代码(HTML),在C#中,...
  • llftc
  • llftc
  • 2011-12-23 11:17
  • 1443

C#三种模拟自动登录和提交POST信息的实现方法

在实际编程过程中,我们经常会遇到验证身份、程序升级网络投票会员模拟登陆等需要,C#给我们提供了以下的实现方法:          网页自动登录和提交POST信息的核心就是分析网页的源代码(HTML...

C#三种模拟自动登录和提交POST信息的实现方法

网页自动登录(提交Post内容)的用途很多,如验证身份、程序升级、网络投票等,以下是用C#实现的方法。        网页自动登录和提交POST信息的核心就是分析网页的源代码(HTML),在C#中,...

C# 用Cookie实现web的自动登录

有很多Web程序中第一次登录后,在一定时间内(如2个小时)再次访问同一个Web程序时就无需再次登录,而是直接进入程序的主界面(仅限于本机)。实现这个功能关键就是服务端要识别客户的身份。而用Cookie...

C# 使用 Abot 实现 爬虫 抓取网页信息 源码下载

C# 使用 Abot 实现 爬虫 抓取网页信息 源码下载

C#编写的邮件(Mail)发送发送人的信息从web.config或者从Appp.congfig中获取的方法

1.webform应用程序.     首先写一个邮件发送的方法         /// 使用SMTP发送邮件         ///    ...

C#网页自动登录和提交POST信息的多种方法

网页自动登录和提交POST信息的核心就是分析网页的源代码(HTML),在C#中,可以用来提取网页HTML的组件比较多,常用的用WebBrowser、WebClient、HttpWebRequest这三...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)