Scrapy爬取当当网畅销图书保存csv格式!最详细的教程!

本文介绍了如何使用Scrapy框架爬取当当网的畅销图书信息,并将其保存为CSV文件。首先,创建Scrapy项目,接着编写爬虫代码并修改settings.py文件设置请求头和爬虫协议。然后,定义item参数,通过main.py运行爬虫。最后,通过三行代码将爬取数据保存为CSV,整个过程包括可能出现的问题及调试方法。
摘要由CSDN通过智能技术生成

初步了解scrapy框架爬虫的使用。

 

前言:

 

需要安装一下第三方库
在win下
pip install scrapy
pip install bs4
在mac下把pip改成pip3即可

一、创建scrapy项目

在cmd运行里输入(随便找个盘) scrapy startproject dangdang

 

 

如上图创建成功,接下来在编译器中打开文件

 

这些文件都是自动生成的 来解释说明一下部分文件

 

 

二、代码实现——编辑爬虫

——1.

接下来创建爬虫项目book.py(注意在spiders文件夹下创建)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值