python爬虫之爬取掘金网首页存入mysql数据库

博主是个前端小白,最近在学习爬虫,写个实战系列也是想记录自己学习的过程,以便后续回顾

欢迎大家一起交流学习、共同进步

这篇文章达成的效果是爬掘金网的首页的数据存到mysql数据库里

做这个实战你需要具有一点点python的基础知识,当然没有也行可以复制我的代码先跑一跑感受一下会有动力一点

爬取的网站:https://juejin.im/timeline

系统:win10

python版本:3.7

MYSQL安装包下载:https://dev.mysql.com/downloads/windows/installer/ 

mysql-installer-web-community  15.9M那个是在线安装

mysql-installer-community 推荐下载第二个离线安装

现在这个安装包好像不分32位还是64位,我是64位的安装成功,MSI安装版安装挺简单的我就不赘述了(其实我安装蛮久了没记录下来)

安装完成可以通过·mysql -u root -p查看

mysql安装成功后你还需要一个python操作mysql的库,cmd执行使用pip安装pymysql:

pip install pymysql

环境准备好后就开始愉快的学习吧

网站分析

我们进入网站

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值