C# 数据采集进展(实验储备)

 写了一个控制台应用程序, 用了2个小时时间一共从sohu网站上抓取30000多条记录.截图如下.

数据库截图

离十几万的距离又近了一步.

 

using  System;
using  System.Data;
using  System.IO;
using  System.Configuration;
using  System.Web;
using  System.Web.Security;
using  System.Web.UI;
using  System.Web.UI.WebControls;
using  System.Web.UI.WebControls.WebParts;
using  System.Web.UI.HtmlControls;
using  System.Data.SqlClient;
using  System.Text;
using  System.Text.RegularExpressions;
using  System.Net;
using  System.Collections.Generic;

/// <summary>
/// test 的摘要说明
/// </summary>
/// 


    
public   class  test
    
{
        
        
//private string requestUrl;
        
//private int resultCount;
        private static string information;
        
private static HttpWebRequest httpwRequest;
        
private static HttpWebResponse httpwResponse;
        
//private string pageText = "";
        
//private string[] regexs;
        private static int count;
        
private static  SqlConnection connection;
        
//public MatchCollection[] matchs;


        
public static void Main()
        
{
            
string headerRegex = "(?<=ti8 fc_3333'>)[^<]{10,}";
            
string textRegex = "(?<=528 class='break'>)[^/]*</td></tr>";
            MatchCollection mcHeader;
            MatchCollection mcText;
            connection 
= new SqlConnection(@"Data Source=BAKERS;Initial Catalog=idea;User ID=sa;Password=123456");
            
           
// string header = "";

            
for (int j = 1; j < 1599; j++)
            
{
                
try
                
{
                    count 
= 0;
                    
string page;
                    page 
= j.ToString();
                    
string requestUrl = "http://comment2.news.sohu.com/viewcomments.action?id=242136287&pageNumber=" + page;
                    
//string requestUrl = "http://comment2.news.sohu.com/viewcomment.action?id=12146627";
                    httpwRequest = (HttpWebRequest)WebRequest.Create(requestUrl);
                    httpwResponse 
= (HttpWebResponse)httpwRequest.GetResponse();
                    information 
= TextContent(httpwResponse);
                    mcHeader 
= Regex.Matches(information, headerRegex);
                    mcText 
= Regex.Matches(information, textRegex);
                   
// Response.Write(mcHeader.Count.ToString() + "  " + mcText.Count.ToString());
                    for (int i = 0; (i < mcText.Count) && (i < mcHeader.Count); i++)
                    
{
                        count
++;
                        Console.WriteLine(
"page:" + j.ToString() + "  count:" + count.ToString() + " :" + Regex.Replace(mcHeader[i].Value, "(<[^>]*>)|'"""));
                        Console.WriteLine(Regex.Replace(mcText[i].Value, 
"(<[^>]*>)|'"""));
                        ResultInsert(Regex.Replace(mcHeader[i].Value, 
"(<[^>]*>)|'"""), Regex.Replace(mcText[i].Value, "(<[^>]*>)|'"""));
                    }

                    
// Label1.Text = header;
                    
//}
                    
//  Label1.Text = count.ToString() + "条记录已经被抓取!";

                }

                
catch (Exception ee)
                
{
                    Console.WriteLine(ee.Message);
                }

            }

           
        }

        
public static void ResultInsert(string header, string context)
        
{
            
string sql = "insert into sohu(header,context,other)values('" + header + "','" + context + "',2)";
            SqlCommand command 
= new SqlCommand(sql, connection);
            
if (connection.State == ConnectionState.Closed)
            
{
                command.Connection.Open();
            }

            command.ExecuteNonQuery();
          
        }

       
        
public static Encoding GetEncoding(HttpWebResponse response)
        
{
            
string name = response.ContentEncoding;
            Encoding code 
= Encoding.Default;
            
if (name == "")
            
{
                
string contentType = response.ContentType;
                
if (contentType.ToLower().IndexOf("charset"!= -1)
                
{
                    name 
= contentType.Substring(contentType.ToLower().IndexOf("charset="+ "charset=".Length);
                }

            }


            
if (name != "")
            
{
                
try
                
{
                    code 
= Encoding.GetEncoding(name);
                }

                
catch { }
            }

            
return code;
        }



        
public static string TextContent(HttpWebResponse response)
        
{
            
string buffer = "", line;

            Stream stream 
= response.GetResponseStream();
            StreamReader reader 
= new StreamReader(stream, GetEncoding(response));


            
while ((line = reader.ReadLine()) != null)
            
{

                buffer 
+= line + " ";
            }

            stream.Close();
            response.Close();
            
return buffer;
        }



    }




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
预览图片见:http://www.cnblogs.com/xxpyeippx/archive/2008/03/31/1131211.html运行环境windows nt/xp/2003 or above.net Framework 1.1SqlServer 2000 开发环境 VS 2003目的学习了网络编程,总要做点什么东西才好。于是想到要做一个网页内容采集器。作者主页: http://www.fltek.com.cn使用方式测试数据采用自cnBlog。见下图用户首先填写“起始网页”,即从哪一页开始采集。然后填写数据库连接字符串,这里是定义了采集到的数据插入到哪个数据库,后面选择表名,不必说了。网页编码,不出意外的话,中国大陆都可以采用UTF-8爬取文件名的正则:呵呵 这个工具明显是给编程人员用的。正则都要直接填写啦。比如说cnblogs的都是数字的,所以写了\d建表帮助:用户指定要建立几个varchar型的,几个text型的,主要是放短数据和长数据啊。如果你的表里本来就有列,那就免啦。程序里面没有做验证哦。网页设置里面:采集内容前后标记:比如说都有 xxx,如果我要采集xxx就写“到”,意思,当然就是到之间的内容啦。后面的几个文本框是显示内容的。点击“获取URL”可以查看它捕获的Url对不对的。点击“采集”,可以把采集内容放到数据库,然后就用 Insert xx () (select xx) 可以直接插入目标数据了。程序代码量非常小(也非常简陋),需要的改动一下啦。不足 应用到了正则表达式、网络编程由于是最简单的东西,所以没有用多线程,没有用其他的优化方法,不支持分页。测试了一下,获取38条数据,用了700M内存啊。。。。如果有用的人 ,可以改一下使用啦。方便程序员用,免写很多代码。Surance Yin@ Surance Center 转载请注明出处
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值