java 抓取文库,java技术的网页内容智能抓取.doc

41528d3028836879cd698677c3999917.gifjava技术的网页内容智能抓取.doc

基于JAVA技术的网页内容智能抓取架构完全基于java的技术核心技术XML解析,HTML解析,开源组件应用。应用的开源组件包括:DOM4J:解析XML文件jericho-html-2.5:解析HTML文件commons-httpclient:读取WEB页面内容工具其他必须的辅助引用包括:commons-codeccommons-loggingjaxen基本业务流程描述通过XML文件定义抓取目标通过DOM4J开源组件读取XML配置文件根据配置文件执行抓取任务对抓取到的内容根据定义进行解析与处理目前缺陷功能描述抓取内容如果有分页,则无法获取下一分页目标页面可能包含有想抓取的信息,但没有抓取的配置选项。如百度贴吧目标页面链接定义不够灵活,对于百度贴吧的链接参数以50增加的只能手动定义没有多线程支持日志输出比较混乱错误处理比较简单,不能对失败的任务自动重新执行,很多地方缺乏错误判断,如空数组程序架构不够清晰,代码略显凌乱不支持抓取结果存入多个表,目前只能将结果放在一个表中是否考虑写一个XML类,提供通用的调用XML节点跟解析结果的方法?规定任务文件的DTD?通配符替换不支持多个替换目前功能描述抓取目标定义作用:批量的定义抓取目标,自动生成要抓取的网页的地址。系统通过这个定义,自动生成要抓取的目标。网页抓取的意义在于批量自动化抓取,不可能手动的输入网址一个个进行抓取,所以抓取目标的自动生成是必须的。抓取目标定义的XML文件范例:XML规则:1.必须包含target节点,target的encode与timeout属性如果采用默认,可以不设置2.multi-url与wildcard-url可以任选一个,也可以并存,最多2个。合理的情况包括:只有一个multi-url,只有一个wildcard-url,一个multi-url和一个wildcard-url。注意,无论wildcard-url跟multi-url的顺序如何,系统都会从multi-url开始执行。3.multi-url下包含至少一个single-url元素,通过single-url元素的href属性设置url4.wildcard-url属性包括href,startpos,endpos,这3个属性都是必须的。目前只支持(*)通配,url中只能有一个(*),(*)将会被替换成startpos和endpos之间的数字。5.target-regex属性包括root,该属性值将会被添加在通过这个正则匹配得到的url之前。主要针对相对url。相对url需要加上站点的根路径组成完整路径。而如果是绝对url的话,可以将root属性放空。注意,正则表达式需要放在CDATA标签内。因为正则包含特殊字符,必须放在CDATA内,否则很可能导致解析错误。解析过程:1.首先获得页面编码与超时设置,在接下来读取任何html页面的过程中,这2个参数都会被应用。默认的编码为UTF-8,默认的超时时限为5000ms。如果要抓取的网站访问很慢,响应时间特别长,那么这个超时时限可以相应设置得高一点。如果在target中没有指定这2个值,那么系统会采用默认的编码跟超时设置。2.判断是否包含multi-url定义,包含的话调用相应的方法,如果target下定义了target-regex元素,那么multi-url中定义的url会先被读取,然后将读取到的内容使用target-regex中定义的正则表达式进行匹配,将匹配结果作为目标列表返回。如果target下没有定义target-regex,那么将multi-url下所有的url作为目标列表返回。3.判断是否包含wildcard-url定义,包含的话调用相应的方法,首先获得起始跟终结位置,替换生成所有通配的url,接下来同multi-url,如果target下定义了target-regex元素,那么所有生成的通配url会先被读取,然后将读取到的内容使用target-regex中定义的正则表达式进行匹配,将匹配结果作为目标列表返回。如果target下没有定义target-regex,那么将所有生成的通配url作为目标列表返回。举例1:最简单的定义抓取目标例如我们抓取百度的首页,显然这是没什么意义的事情,这里只是举例说明抓取目标的定义方法。这样就完整定义了抓取地址,对于target,我们定义了encode属性,但是省略了timeout属性,因为系统默认是utf8编码,而百度是gb2312编码,必须指定。而timeout我们默认就可以。举例2:通配符url定义抓取目标上网时候经常可以看到某篇文章,如果比较长,就可以会被分成多页,我们点击下一页翻看,对于这样的url地址一般都是非常有规律的,通常它的url带有一个类似page=1之类的属性。假设我们抓取某篇文章的全部内容,这篇文章地址为

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值