scrapy之爬虫初体验

本文详述了如何创建并运行Scrapy项目,包括初始化项目、编写pipelines处理数据、利用items定义爬取结构以及使用xpath提取网页信息,并在settings.py中进行了相关配置。
摘要由CSDN通过智能技术生成

本篇文章主要将怎样创建一个scrapy项目,以及完成第一个scrapy爬虫项目。

首先是安装scrapy模块,有很多原因都能导致scrapy模块安装失败,网上有很多教程让怎样安装scrapy。亲测比较有效的方法使用whl文件安装。不过有小伙伴也可以尝试直接使用pip install scrapy命令进行直接装,运气好就能一次装成功。

第一步:创建一个爬虫项目:window系统下按住win+R组合键,然后在运行窗口输入cmd,打开命令行窗口。
回到你要创建的工作目录下,当然使用anaconda软件的小伙伴如果不想安装其他软件,想提高使用效果,还是把scrapy项目建在工作目录下,当然jupyter是可以改变工作目录的。ps:jupyter创建的文件后缀是.ipynb,但scrapy只识别和执行后缀为.py的文件。所以可以把写好的文件选择另存为.py文件:File-Download as-Python
我的工作目录为E:\Python\Python_work\scrapy,cmd执行命令下图所示:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值