scrapy框架XPATH选择器与正则式使用技巧

12 篇文章 0 订阅
1 篇文章 0 订阅

代码示例:

def parse_item(self, response):
    item = NewsItem()
    item['title'] = response.xpath('//h1[@id="chan_newsTitle"]/text()').extract_first()
    item['url'] = response.url   
    item['text']=''.join(response.xpath('//div[@id="chan_newsDetail"]
    //p[not(@class="editor")]/text()').extract()).strip()
    item['datetime'] = response.xpath('//div[@class="chan_newsInfo_source"]
    //text()').re_first('(\d+-\d+-\d+\s\d+:\d+:\d+)')
    item['source'] = response.xpath('//div[@class="chan_newsInfo_source"]
    //text()').re_first('来源:(.*)').strip()
    item['website'] = '中华网'
    yield item

代码分析:

以上代码为解析一篇新闻详情页,链接为:https://tech.china.com/article/20200520/20200520521233.html

1. 对于XPATH中的“//”和“/”的使用:

一般来说,“//”代表提取的节点是子孙节点,“/”代表提取的是直接子节点。

(1)但是,对于提取一个节点的时候,如第6行代码“//p[not(@class="editor")]/text()').extract()).strip()”为提取id为“chan_newsDetail”的div节点下的p节点(直接子节点),在此处使用“//”或“/”都是能够成功提取到p节点的(根据实测结果得知)。

(2)而对于提取一个节点的text()文本的时候需要注意,“/text()”代表提取该节点的文本,“//text()”代表提取该节点的子节点和子孙节点的文本

2. 根据id或者class属性来选取某个节点:

(1)根据id来选取节点:

 如代码的第3行,根据id选取“h1”节点:

//h1[@id="chan_newsTitle"]

(2)根据class来选取节点:

 如代码的第7行,根据class选取“div”节点:

//div[@class="chan_newsInfo_source"]

3.  选取某个属性不是“xxx”的节点:

如代码的第6行,选取class属性值不是“editor”的所有p节点:

//p[not(@class="editor")]

4. 正则表达式的使用:

item['datetime'] = response.xpath('//div[@class="chan_newsInfo_source"]
//text()').re_first('(\d+-\d+-\d+\s\d+:\d+:\d+)')
item['source'] = response.xpath('//div[@class="chan_newsInfo_source"]
//text()').re_first('来源:(.*)').strip()

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要根据文本密度判断正文所在的节点,可以使用scrapyXPath表达式和正则表达式。具体步骤如下: 1.使用scrapy的Selector选择器选择整个HTML页面,然后使用XPath表达式提取所有的文本节点; 2.对于每个文本节点,使用正则表达式去掉其中的空格、换行符等无用字符,然后计算其中实际文字的长度; 3.对于每个HTML节点,计算其下所有文本节点中实际文字的总长度,再计算其下标签数量的平方,得到一个文本密度的值; 4.遍历所有HTML节点,选出文本密度最大的节点即为正文所在的节点。 以下是示例代码: ``` from scrapy.selector import Selector import re # 定义一个函数,使用正则表达式去掉无用字符,并计算实际文字长度 def clean_text(text): text = re.sub(r'\n|\r| ', '', text) return len(text) # 定义一个函数,计算文本密度 def calc_density(node): total_length = 0 tag_count = 0 for text_node in node.xpath('.//text()'): length = clean_text(text_node.extract()) if length > 0: total_length += length tag_count += 1 density = total_length / (tag_count ** 2) return density # 使用scrapy的Selector选择器选择整个HTML页面 html = '<html><body><div><p>正文内容</p></div></body></html>' sel = Selector(text=html) # 遍历所有HTML节点,选出文本密度最大的节点即为正文所在的节点 max_density = 0 main_node = None for node in sel.xpath('//*'): density = calc_density(node) if density > max_density: max_density = density main_node = node # 输出正文内容 print(main_node.xpath('.//text()').extract()) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值