爬虫实践项目--scrapy爬取当当网前100页数据

例如我们先要爬取当当网书籍类--青春文学--爱情情感的前100页书籍的图片,名字,价格

 1.创建一个scrapy文件

主页内容有scrapy的创建及使用方法可以进去查看

2.查看当当网对图书数据进行分析

 

 通过对网页数据的检查来获取到网页的url的地址以及通过xpath获取图片,书籍名称,价格

 3.在items.py中定义出你要爬取图片,价格,书籍名称

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class ScrapyDangdang095Item(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    # 通俗的说就是你要下载的数据都有什么

    # 图片
  
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值