百度热搜榜标题与热搜指数爬虫(python)

新手第一次写博客,仿照老师给的爬虫结构写了一个

用python写的爬虫,爬取了热搜榜的内容

源码:

# -*- coding: utf-8 -*-
"""
Created on Sun Mar  5 09:38:08 2023

@author: DELL
"""

url = 'http://top.baidu.com/buzz?b=1&fr=topindex'
def getSoup(Url):
      headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36'
} # 设置请求头
      proxy = {'http': 'http://101.4.136.34:82'}# 设置代理 http-协议类型 101.4.136.34-代理ip  82-代理端口
      urls=requests.get(url,headers=headers)
      r = requests.get(url, headers=headers, timeout=30)
      r.encoding = r.apparent_encoding# 获取网页的编码格式
      context = r.text # 获取HTML网页
      soup = BeautifulSoup(r.text,'html.parser') # 解析网页 
      return soup
def getContext():
    soup = getSoup(url)
    # 获取<div class='category-wrap_iQLoo horizontal_1eKyQ'></div>所有标签项
    info_clear_all = soup.find_all('div', class_='category-wrap_iQLoo horizontal_1eKyQ')
    for a in info_clear_all:
        # 获取标题
        label_a_title = a.find('div', class_='c-single-text-ellipsis')  # 获取标题所在的a标签
        title = label_a_title.text.replace(' ', '').strip().replace('\n', '')  # 获取标题
        print('标题:'+title)
        # 获取热搜指数
        hot_index = a.find('div', class_='hot-index_1Bl1a')
        hot_index_num = hot_index.text.replace(' ', '').strip().replace('\n', '')
        print('热搜指数:'+hot_index_num)
        
        
if __name__ == "__main__":
    getContext()

结果如下:

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫百度是指使用Python编写程序来获取百度搜榜的数据。根据提供的引用内容,可以看出有多种方法可以实现这个目标。 引用\[1\]提供了一种使用Python爬虫获取百度搜榜前50数据并保存为CSV文件的方法。该方法使用了Python的requests库来发送HTTP请求,并使用CSV库来将数据保存为CSV文件。 引用\[2\]提供了一个使用面向对象编程的方式来编写Python爬虫程序的示例代码。该代码定义了一个名为MySpider的类,其中包含了获取网页源代码和将源代码写入文件的方法。 引用\[3\]提供了一个爬取百度前30新闻并将其信息放入Excel表格和Flask网页中实现数据可视化的示例。这个示例展示了如何使用Python爬虫来获取百度的数据,并将其用于数据可视化。 综上所述,Python爬虫百度可以通过使用Python的requests库发送HTTP请求来获取数据,并使用CSV库将数据保存为CSV文件。也可以使用面向对象编程的方式来编写爬虫程序,并使用Excel或Flask等工具进行数据可视化。具体的实现方法可以根据需求和个人偏好选择。 #### 引用[.reference_title] - *1* [python网络爬虫:实现百度搜榜前50数据爬取,生成CSV文件](https://blog.csdn.net/qq_32154707/article/details/106042537)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Python爬取练习:指定百度索的内容并提取网页的标题内容](https://blog.csdn.net/qq_45534118/article/details/118311523)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [[入门Python] 爬虫实例--爬取Baidu新闻](https://blog.csdn.net/qq_58534264/article/details/122428162)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值