使用scrapy简单爬取网易新闻

已经安装scrapy的跳过

1.scrapy的安装和项目的创建

安装scrapy

pip install scrapy

项目的创建

在Termianl中输入scrapy startproject 项目名字回车,然后cd 项目名字回车

创建一个爬虫文件输入scrapy genspider  文件名  地址 例如(scrapy genspider wy www.com)

2.流程

 3项目实施

我们需要获取国内国际等模块的url,打开网站,按F12或者右击鼠标检查,定位到国内。我们需要获取的就是a标签下的herf的属性值。

 获取各模块的url,我们可以知道所有的模块都在ul标签下,这就需要我们获取ul标签下所有的li标签,然后进行xpath解析出各个模块的url.

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值