使用 Selenium 和 Python 抓取 CSDN 博客所有文章 附源码

 在这篇博客中,我将向大家展示如何使用 Selenium 和 Python 来抓取 CSDN 博客的文章链接。Selenium 是一个强大的工具,可以自动化浏览器操作,而 Python 则是一个非常适合进行数据抓取的编程语言。

准备工作

在开始之前,我们需要确保已经安装了以下工具:

  1. Python:可以从 Python 官方网站 下载并安装。
  2. Selenium:可以通过以下命令安装:
    pip install selenium
    
  3. Chrome 浏览器:确保已经安装了 Chrome 浏览器。
  4. ChromeDriver:下载与 Chrome 浏览器版本匹配的 ChromeDriver,并将其路径添加到系统环境变量中。可以从 ChromeDriver 官方网站 下载。

代码解释

  1. 设置 Chrome 驱动器: 我们使用 Options 类来设置 Chrome 驱动器的选项,使其在无头模式下运行(即不显示浏览器窗口)。

  2. 创建 Chrome 浏览器实例: 使用 webdriver.Chrome 创建一个新的 Chrome 浏览器实例,并应用我们设置的选项。

  3. 循环遍历页面: 我们使用一个循环来遍历指定范围内的页面。在每次循环中,用户需要输入博客用户 ID,然后程序会构建目标 URL 并让浏览器打开该页面。

  4. 查找并提取链接: 我们使用 find_elements 方法查找页面中的所有 h4 标签,并在每个 h4 标签中查找 a 标签。然后,我们提取 a 标签的 href 属性和文本内容,并打印出来。

  5. 关闭浏览器: 最后,我们使用 driver.quit() 关闭浏览器实例。

代码实现

以下是完整的代码示例:

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By

# 设置Chrome驱动器
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
chrome_options.add_argument('--no-sandbox')
chrome_options.add_argument('--disable-dev-shm-usage')

# 创建一个新的Chrome浏览器实例
driver = webdriver.Chrome(options=chrome_options)

# 目标网页的URL
for a in range(1, 3):  # 修改这里
    keyword = input('请输入博客用户ID:')
    url = f'https://blog.csdn.net/{keyword}/article/list/{a}'
    driver.get(url)
    # 让浏览器打开目标网页

    # 查找所有的h4标签
    h4_tags = driver.find_elements(By.TAG_NAME, 'h4')

    # 遍历所有的h4标签
    for h4 in h4_tags:
        # 找到所有的a标签
        a_tags = h4.find_elements(By.TAG_NAME, 'a')
        for a_tag in a_tags:
            # 获取a标签的href属性
            href = a_tag.get_attribute('href')
            # 获取a标签的文本内容
            text = a_tag.text.strip()
            print(f'链接: {href}, 文本: {text}')
# 关闭浏览器
driver.quit()

运行结果:

说明

这段代码使用Selenium从CSDN博客用户的文章列表页面抓取数据。具体步骤如下:

  1. 设置Chrome驱动器:配置Chrome浏览器的选项,使其在无头模式下运行。
  2. 创建浏览器实例:创建一个新的Chrome浏览器实例。
  3. 输入用户ID:用户输入博客用户ID。
  4. 打开目标网页:根据用户ID和页码构建URL,并让浏览器打开目标网页。
  5. 查找标签:查找所有的h4标签。
  6. 遍历标签:遍历所有找到的h4标签,进一步查找其中的a标签,并提取href属性和文本内容。
  7. 打印结果:打印提取的数据。
  8. 关闭浏览器:关闭浏览器以释放资源。

扩展

可以对代码进行以下扩展:

  1. 错误处理:增加更多的错误处理机制,以应对不同的异常情况,例如网络错误或解析错误。
  2. 数据存储:将提取的数据存储到数据库或文件中,以便后续分析。
  3. 多页面抓取:如果需要抓取更多页面的数据,可以增加翻页功能。
  4. 数据清洗:对提取的数据进行清洗和格式化,以便更好地使用。

相关类型扩展

类似的技术可以应用于其他类型的数据抓取任务,例如:

  1. 电商网站数据抓取:抓取商品信息、价格、评论等数据。
  2. 社交媒体数据抓取:抓取用户发布的内容、评论、点赞等数据。
  3. 新闻网站数据抓取:抓取新闻标题、内容、发布时间等数据。
  4. 招聘网站数据抓取:抓取职位信息、公司信息、薪资等数据。

       爬虫项目推荐

    其他项目推荐

总结

这段代码提供了一个基础的网页数据抓取示例,通过进一步的扩展和优化,可以实现更复杂和多样化的数据抓取需求。

结论

这段代码展示了如何使用Selenium进行网页数据抓取。通过适当的扩展和调整,可以应用于各种不同的数据抓取任务,为数据分析和研究提供支持。

欢迎在评论区留言。继续探索和学习,祝你在深度学习的旅程中取得更多的成果!🚀


希望这个博客对你有所帮助!如果你有任何问题需要进一步的指导,请随时提问。继续加油! 🚀

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

LIY若依

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值