爬虫:东方财富网数据爬取

1、首先构造一个函数download_all_htmls()爬取网页信息

通过request函数根据路径获取网页信息,获得请求网页权限(可通过反爬虫机制来获取),构造空列表htmls来填入网页所对应的字符内容。

2、调用download_all_htmls函数获取网页内容

3、解析html所获得的相应数据

定义一个函数parse_single_html(html):用beautifulsoup初始化对象,通过目录路径找到目标总体items。读取items里所有的目标内容,通过正则表达式找到对应的目标对象link和title,并加入已定义的空列表datas,其元素为元组形式。

4、调用函数parse_single_html获取目标对象link和title

并通过pprint批量打印数据,使对象数据更一目了然。再将数据放入已定义的空列表data,最后将data转换为表格型的数据结构DataFrame。

5、将数据存入mysql

首先导入对应的模块create_engine,再设置连接数据库(注意用utf8mb4编码形式来存放较多字符串),最后写入mysql。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值