python使用requests爬取数据(酷狗hot500案例)(讲解细致)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/meiqi0538/article/details/79476300

关于使用requests爬取酷狗hot500的案例

1.  案例环境:

       python版本:python3.x;

       IDE:anaconda-spider;(已安装好需要的requests,bs4库等)

       数据库:mysql.5.7

       工具包:pymsql(安装将补充)、requests,beautifulsoup

2.  思路分析:

   2.1 确定待爬取的url:

    http://www.kugou.com/yy/rank/home/1-8888.html?from=homepage

    说明:其页数的变化是修改1-8888中的1,即第n页为n-8888

    使用火狐浏览器查看网页的代码:ctrl+shift+i,先点击如图红框中按钮,再在网页上点击需要查看内容就会定位到对应的代码,如图1:

图1

  2.2 确定爬取的数据

      确定爬取的歌曲排名的标签class类名:pc_temp_songnum,如图2:

图2

      确定爬取的歌曲名称和歌手的标签class类名:pc_temp_songname,如图3:

图3

      确定爬取的歌曲时间的标签class类名:pc_temp_time;如图4:

图4

3.  代码分析:


    
    
  1. # -*- coding: utf-8 -*-
  2. """
  3. Created on Sat Feb 24 21:00:31 2018
  4. @author: piqia
  5. """
  6. # 导入时间模块 可以调用sleep方法,避免频繁地爬去信息而被屏蔽
  7. import time
  8. #使用requests库获取爬取的页面
  9. import requests
  10. #从bs4中导入BeautifulSoup,用于解析html页面
  11. from bs4 import BeautifulSoup
  12. #这是使用mysql数据库,将爬取的数据写到mysql数据中
  13. import pymysql
  14. #初始化连接对象、执行对象
  15. connection= None
  16. cursor= None
  17. #设置访问的头,伪装浏览器,注释1
  18. headers={
  19. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; …) Gecko/20100101 Firefox/58.0'
  20. }
  21. #爬取的函数,获取酷狗音乐TOP500的信息,参数为一个连接地址,一个数据操作对象
  22. def get_info(url,mysqlHelper):
  23. #使用requests获取,并设置headers参数
  24. wb_data=requests.get(url, params=headers)
  25. #对爬取到的数据使用text获取,进行解析
  26. soup = BeautifulSoup(wb_data.text, 'lxml')
  27. # 获取排名
  28. ranks = soup.select( '.pc_temp_num')
  29. # 获取歌名和歌手
  30. titles = soup.select( '.pc_temp_songname')
  31. # 歌曲时长list
  32. song_times = soup.select( '.pc_temp_time')
  33. #排名,歌名。歌手,时间都是一一对应的列表格式,用for循环进行遍历,写入data字典中,可写入mongodb,也可写到mysql,这是写到mysql中
  34. for rank,title,song_time in zip(ranks,titles,song_times):
  35. data={
  36. 'rank': rank.get_text().strip(), #获取标签的中的内容,并把附近的空格、换行删除
  37. 'singer':title.get_text().split( '-')[ 0].strip(), #将字符串切割出一个列表获取第一个
  38. 'song':title.get_text().split( '-')[ 1].strip(), #将字符串切割出一个列表获取第二个
  39. 'time':song_time.get_text().strip() #获取时间值
  40. }
  41. #根据获取的数据,写出插入数据
  42. sql= '''insert into songs values("{0}","{1}","{2}","{3}")'''.format(data[ 'rank'],data[ 'singer'],data[ 'song'],data[ 'time'])
  43. #打印验证
  44. print(sql)
  45. print( "-"* 20)
  46. #调用对象这的方法写入方法
  47. mysqlHelper.insert(sql)
  48. #创建一个数据库操作对象
  49. class mysqlHelper():
  50. #初始化,类似于java中的数据的定义
  51. def __init__(self):
  52. self.connection= None
  53. self.cursor= None
  54. #关闭数据方法
  55. def close(self):
  56. if self.cursor:
  57. self.cursor.close()
  58. if self.connection:
  59. self.connection.close()
  60. #操作mysql语句
  61. def insert(self,sql):
  62. #使用try except,处理异常
  63. try:
  64. #使出pymysql获取mysql数据库连接
  65. self.connection=pymysql.connect(host= 'localhost',user= 'root',passwd= 'root',db= 'myproject',charset= 'utf8')
  66. #获取数据操作对象
  67. self.cursor=self.connection.cursor()
  68. #执行sql语句
  69. self.cursor.execute(sql)
  70. #事务提交
  71. self.connection.commit()
  72. except Exception as ex:
  73. #异常数据回滚,不进行mysql数据的执行
  74. self.connection.rollback()
  75. #打印异常信息
  76. print(ex)
  77. finally:
  78. #关闭资源
  79. self.close()
  80. #如果直接使用本文件就执行
  81. if __name__== '__main__':
  82. #初始化数据库
  83. sql0= "DROP TABLE IF EXISTS `songs`"
  84. sql1 = "CREATE TABLE `songs` (`rank` varchar(5),`songer` varchar(100),`song` varchar(50),`time` varchar(10))ENGINE=InnoDB DEFAULT CHARSET=utf8;"
  85. #创建对象
  86. mysqlHelper=mysqlHelper()
  87. #清空数据库中songs的表格
  88. mysqlHelper.insert(sql0)
  89. #创建表格,经过测试,不可以同时执行这两条语句
  90. mysqlHelper.insert(sql1)
  91. #生成要遍历成的url,使用列表生成器的方式
  92. urls=[ 'http://www.kugou.com/yy/rank/home/{}-8888.html?from=rank'.format(str(i)) for i in range( 1, 24)]
  93. for url in urls:
  94. #调用get_info方法进行爬取
  95. get_info(url,mysqlHelper)
  96. #推迟1s
  97. time.sleep( 1)

4.  执行结果

        如图5为spider执行结果片段,图6是将爬取的数据写到数据的结果。

图5

图6

5.  补充

5.1 Headers的获取

        打开火狐-->crtl+shift+i-->网络(图7)-->消息头(图8)即可找到。

图7


图8

5.2 注意

        由于歌曲名,歌手长度不定在创建数据库的时候要考虑各个列的长度。

5.3 pymysql工具包的安装

        方式比较多,这里我使用anaconda中便捷的安装方式:打开anaconda --> envirments(图9)选择All-->搜索pymysql(图10)安装即可。

图9

图10

阅读更多
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值