使用反反爬策略爬取新浪新闻网站内容

一、安装Scrapy

命令:sudo apt-get intall scrapy 或 pip/pip3 install scrapy

二、Scrapy项目开发流程

1.创建项目

scrapy startproject weibo

2.创建爬虫

cd weibo

scrapy genspider weibo  news.sina.com.cn

3.完善爬虫

①修改起始url

②检查修改允许的域名

 ③定义Items类

④在parse方法中实现爬取逻辑

⑤使用xpath提取数据

安装 pip install lxml

使用xpath选择器提取HTML数据

 ⑥利用管道pipeline来处理(保存)数据

 ⑦在settings配置启用管道

三、scrapy实现反反爬技术

①在middlewares定义UA,随机ip代理

 ②在settings中开启自定义的下载中间件

 ③在settings中添加UA列表,IP列表

四、启动爬虫

scrapy crawl weibo

  • 11
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值