Python爬虫项目,获取所有网站上的新闻,并保存到数据库中,解析html网页等(未完待续)

1、需求说明

需求:
爬取虎嗅网站的所有新闻,并保存到数据库中。
http://www.huxiu.com

技术:
1、爬虫
获取服务器的资源(urllib)
解析html网页(BeautifulSoup)
2、数据库技术
数据库 MySQLdb
业务逻辑的分析:
(1)、虎嗅网站的新闻,包括首页和分页信息(下一页)
(2)、需要从首页的资源和分页的资源中获取每个新闻的url连接
如何获取url:
解析网站html文件,如果A标签的href属性包含 article字段,就表示这是一个新闻
(3)访问新闻的url,解析出想要的字段

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

涂作权的博客

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值