Scrapy爬取新闻

Scrapy爬取新闻
源码:importscrapy
importjson

classDgcSpider(scrapy.Spider):
name=‘dgc’

defstart_requests(self):
dictions=[
{‘url’:‘http://nh.cnnb.com.cn/system/2013/07/02/010647240.shtml’},

]
fordictionindictions:
yieldscrapy.Request(
url=diction[‘url’],
callback=self.parse,
dont_filter=True,
meta={‘1’:1}
)

defparse(self,response):
res=response.xpath(’//div[@class=“article_leftleft”]/table[2]’)
title=res.xpath(’.//tr[4]/td/b/text()’).get()
content=res.xpath(’.//tr[12]/td//p//text()’).getall()
#contetn=res.xpath(‘string(.//tr[12]/td/p)’).get()
article=’\n’.join(content)
print(title)
print(article)
data={
‘title’:title,
‘article’:article
}
data=json.dumps(data)
print(data)
ff=open(‘data.json’,‘w’,encoding=‘utf-8’)
ff.write(data)
#yieldscrapy.Request(
#url=’’,
#callback=self.parsePage,
#dont_filter=True,
#meta={‘1’:1}
#)

defparsePage(self,response):
meta_=response.meta[‘1’]

第一步:
找到要爬取页面的URL,和要爬取的属性,比如:标题和文章。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值