简单网络爬虫实现<爬取网页邮箱>

转载自http://blog.csdn.net/u013616976/article/details/20620017

网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本

今天我们就以JAVA抓取网站一个页面上的全部全部邮箱为例来做具体说明,人一直很懒,不在做GUI了,大家看看明白原理就行。

——————————————————————————————————————————————————

百度上随便找一个网页,又想多的最好,这次以 点击打开链接 这个贴吧网页为例进行说明


从图片和网页可见上面有许多邮箱,我粗略看了看十几页大概有几百个吧,如果你是楼主你肯定很难办,你要是一个一个发吧太多了工作量太大了,一个一个邮箱的复制真的会累死人的。可是,如果你不发,肯定会被吧友鄙视。
怎么办呢?当然,如果有一个工具能过自动识别网页上的邮箱并将它们取出来那该多好啊……
他就是网页爬虫,可是按照一定的规则抓取网页数据,(像什么百度,谷歌 做SEO 大多是网页数据的抓取与分析)并将这些数据保存起来,方便数据的处理和使用。

废话太多,上教程‘。
 
—————————————————————————————————————————————————
 思路分析:
1.要想获取网页的数据必须取得与网页的链接
2.要想获得网页上的邮箱地址必须由获得邮箱地址相应的规则
3.要想把数据去除必须由取得数据相关类的操作
4.要想保存数据必须实现保存数据的操作

 —————————————————————————————————————————————————

 接下来上代码。
[java]  view plain  copy
  1. package tool;  
  2. import java.io.BufferedReader;  
  3. import java.io.File;  
  4. import java.io.FileWriter;  
  5. import java.io.InputStreamReader;  
  6. import java.io.Writer;  
  7. import java.net.URL;  
  8. import java.net.URLConnection;  
  9. import java.sql.Time;  
  10. import java.util.Scanner;  
  11. import java.util.regex.Matcher;  
  12. import java.util.regex.Pattern;  
  13. public class Demo {  
  14.     public static void main(String[] args) throws Exception {// 本程序内部异常过多为了简便,不一Try,直接抛给虚拟机  
  15.         Long StartTime = System.currentTimeMillis();  
  16.         System.out.println("--     欢迎使用飞扬简易网页爬虫程序      --");  
  17.         System.out.println("");  
  18.         System.out.println("--请输入正确的网址如http://www.baidu.com--");  
  19.         Scanner input = new Scanner(System.in);// 实例化键盘输入类  
  20.           
  21.         String webaddress = input.next();// 创建输入对象  
  22.         File file = new File("D:" + File.separator + "test.txt");// 实例化文件类对象  
  23.           
  24.                                                                 // 并指明输出地址和输出文件名  
  25.           
  26.           
  27.         Writer outWriter = new FileWriter(file);// 实例化outWriter类  
  28.           
  29.         URL url = new URL(webaddress);// 实例化URL类。  
  30.           
  31.         URLConnection conn = url.openConnection();// 取得链接  
  32.           
  33.         BufferedReader buff = new BufferedReader(new InputStreamReader(  
  34.                   
  35.                                                 conn.getInputStream()));// 取得网页数据  
  36.           
  37.         String line = null;  
  38.         int i=0;  
  39.         String regex = "\\w+@\\w+(\\.\\w+)+";// 声明正则,提取网页前提  
  40.           
  41.         Pattern p = Pattern.compile(regex);// 为patttern实例化  
  42.           
  43.         outWriter.write("该网页中所包含的的邮箱如下所示:\r\n");  
  44.         while ((line = buff.readLine()) != null) {  
  45.           
  46.             Matcher m = p.matcher(line);// 进行匹配  
  47.               
  48.             while (m.find()) {  
  49.                 i++;  
  50.                 outWriter.write(m.group() + ";\r\n");// 将匹配的字符输入到目标文件  
  51.             }  
  52.         }  
  53.         Long StopTime = System.currentTimeMillis();  
  54.         String UseTime=(StopTime-StartTime)+"";  
  55.         outWriter.write("--------------------------------------------------------\r\n");  
  56.         outWriter.write("本次爬取页面地址:"+webaddress+"\r\n");  
  57.         outWriter.write("爬取用时:"+UseTime+"毫秒\r\n");  
  58.         outWriter.write("本次共得到邮箱:"+i+"条\r\n");  
  59.         outWriter.write("****谢谢您的使用****\r\n");  
  60.         outWriter.write("--------------------------------------------------------");  
  61.         outWriter.close();// 关闭文件输出操作  
  62.         System.out.println(" —————————————————————\t");  
  63.         System.out.println("|页面爬取成功,请到D盘根目录下查看test文档|\t");  
  64.         System.out.println("|                                         |");  
  65.         System.out.println("|如需重新爬取,请再次执行程序,谢谢您的使用|\t");  
  66.         System.out.println(" —————————————————————\t");  
  67.     }  
  68. }  

 代码如上,每一行都有注释,实在看不懂的可以联系我。
直接在命令行下 编译-->运行


输入爬去取页面的地址。


打开D盘目录找到test.xt文件.


文件内的邮箱默认加上了“;”方便大家发送操作


当然,爬取本地文件内的数据就更简单了
不再过多解释直接上代码。
 

[java]  view plain  copy
  1. import java.io.BufferedReader;  
  2. import java.io.File;  
  3. import java.io.FileReader;  
  4. import java.util.regex.Matcher;  
  5. import java.util.regex.Pattern;  
  6. public class Demo0 {  
  7.     public static void main(String[] args)throws Exception {  
  8.         BufferedReader buff=new BufferedReader(new FileReader("D:"+File.separator+"test.txt"));  
  9.           
  10.         String line=null;  
  11.         String regex="\\w+@\\w+(\\.\\w+)+";  
  12.         Pattern p=Pattern.compile(regex);  
  13.         while ((line=buff.readLine())!= null) {  
  14.             Matcher m=p.matcher(line);  
  15.             while (m.find()) {  
  16.                 System.out.println(m.group()+";");  
  17.                   
  18.             }  
  19.         }  
  20.     }  
  21. }  

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLO高分设计资源源码,详情请查看资源内容中使用说明 YOLO高分设计资源源码,详情请查看资源内容中使用说明 YOLO高分设计资源源码,详情请查看资源内容中使用说明 YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明YOLO高分设计资源源码,详情请查看资源内容中使用说明

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值