Python爬虫、数据清洗与可视化-4 - scrapy-练习-1-——爬baidu首页热点

新手学习日记1-练习
爬baidu首页热点
一、创建工程
用scrapy创建个新项目爬baidu首页热点。命令行下输入命令,命令会在当前目录下创建baiduscrapy项目。

scrapy startproject baiduscrapy
cd baiduscrapy
scrapy genspider baidu "www.baidu.com"

二、修改parse
命令已经帮我们自动创建了爬虫代码,打开spiders文件夹下baidu.py文件,修改如下。

import scrapy
from baiduscrapy.items import BaiduscrapyItem

class BaiduSpider(scrapy.Spider):
    name = 'baidu' #爬虫的名字,运行爬虫的时候就看这个参数。
    allowed_domains = ['baidu.com'] #抓取的域名限制
    start_urls = [</
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值