python-scrapy使用.

1.配置环境
https://www.anaconda.com/download/
我使用的是 anaconda3,根据自己需求,自主选择
下载好后,安装,然后配置环境变量
图1.png
然后安装 scrapy

conda install scrapy

安装成功输入 scrapy 查看
图2.png


python 开发工具使用的 Pycharm
下载地址:http://www.jetbrains.com/pycharm/download/#section=windows
图3.png

下载好了就安装,一路Next…
然后就是破解=。=

Windows系统hosts文件路径为:c:\windows\system32\drivers\etc
Mac和Ubantu(Linux)系统hosts文件路径为:/etc
我用的是 windows 所以直说windows的
图4.png
图5.png

0.0.0.0 account.jetbrains.com

然后就-> http://idea.lanyus.com/ 自己获取注册码
图6.png
然后就over了,亲测 木有问题=。=


步入正题:使用scrapy框架 爬数据!
目标-> 豆瓣
数据库->mysql


#首先cd 到你的目录!初始化你的项目=。=
scrapy startproject douban
scrapy genspider douban_spider movie.douban.com

执行完目录如下=。=
图7.png


spiders 目录开始你的爬虫=。=
items.py  ->  实体、对象、dto .......
middlewares.py -> 中间件、比如说代理扩展
pipelines.py -> 操作数据库的,清洗数据...
settings.py -> 配置文件
scrapy.cfg->项目的配置文件

代码=。=
https://gitee.com/benbenyezi/python-scrapy-spider/tree/master/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值