【Python】简单爬虫抓取知乎专栏文章标题和链接、存储进CSV

今天突发奇想,想要爬取一下知乎专栏文章的标题和链接,看看某个作者到底在这大几百几千篇文章中写了什么。


1. 观察网页

https://zhuanlan.zhihu.com/c_1034016963944755200为例,我们所需要的每篇文章的所有信息,都被分别包括在一个类名为 ContentItem ArticleItemdiv 标签对中:
在这里插入图片描述

更准确的说,是一个类名为 ContentItem-title<h2></h2> 标题元素中:
在这里插入图片描述

此外,还发现知乎专栏并不是一次性加载完该专栏的所有文章,而是随着侧滑栏向下滑动而逐渐加载,滑动到底部时以每10篇文章为单位进行加载,并在HTML文档中生成新的 <div></div> 元素:
在这里插入图片描述
这就有点麻烦了,不过也不算太难。进一步观察发现,每次加载新文章时会发送一个 GET 请求,返回的是JSON数据:
在这里插入图片描述

其中包含了我们想要的所有信息,包括文章标题、链接、摘要、作者等等:
在这里插入图片描述

因此我们只需要不断请求这些JSON数据,进行解析得到结果,最后写入文件即可。


2. 实际代码

代码如下,就不仔细讲解了,反正很简单:

# -*- coding: utf-8 -*-
import os
import time
import requests
import csv

zhihuColumn = "c_1034016963944755200" # 自行替换专栏编号,此处是自娱自乐的游戏访谈录(在URL中的编号)
startURL = "https://www.zhihu.com/api/v4/columns/" + zhihuColumn + "/items?limit=10&offset={}"
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:91.0) Gecko/20100101 Firefox/91.0"}

# 输入URL,得到JSON数据
def getJSON(url):
    try:
        r = requests.get(url, headers = headers)
        r.raise_for_status() # 响应状态码,出错则抛出异常
        r.encoding = r.apparent_encoding
        return r.json()
    except Exception as ex:
        print(type(ex))
        time.sleep(10)
        return getJSON(url)

# 输入文章总数,输出所有文章标题和链接的CSV文件
def process(total):
    num = 0 # 文章编号
    if (os.path.exists("zhihu.csv")): # 已经存在时则删除
        os.remove("zhihu.csv") 
    with open("zhihu.csv", "a", encoding = "UTF-8", newline = '') as f:
        writer = csv.writer(f)
        writer.writerow(["编号", "标题", "链接"]) # csv表头部分
        for offset in range(0, total, 10):
            jsonData = getJSON(startURL.format(offset))
            items = jsonData["data"]
            for item in items:
                num = num + 1
                writer.writerow([num, item["title"], item["url"]])

if __name__ == "__main__":
    jsonData = getJSON(startURL.format(0))
    process(jsonData["paging"]["totals"])

3. 运行效果

在这里插入图片描述

  • 5
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
Python 模拟爬虫抓取乎用户信息以及人际拓扑关系,使用scrapy爬虫框架,数据存储使用mongo数据库。   本地运行请注意:爬虫依赖mongo和rabbitmq,因此这两个服务必须正常运行和配置。为了加快下载效率,图片下载是异步任务,因此在启动爬虫程执行需要启动异步worker,启动方式是入zhihu_spider/zhihu目录后执行下面命令:   celery -A zhihu.tools.async worker --loglevel=info   爬虫项目部署:   入zhihu_spider后执行```docker-compose up``` ,入container后和本地运行方法相同,依次启动mongo、rabbitmq、异步任务、爬虫程即可。   其它需要说明的问题:   爬虫框架从start\_requests开始执行,此部分会提交乎主页的访问请求给引擎,并设置回调函数为post_login.   post\_login解析主页获取\_xsrf保存为成员变量中,并提交登陆的POST请求,设置回调函数为after\_login.   after\_login拿到登陆后的cookie,提交一个start\_url的GET请求给爬虫引擎,设置回调函数parse\_people.   parse\_people解析个人主页,一次提交关注人和粉丝列表页面到爬虫引擎,回调函数是parse\_follow, 并把解析好的个人数据提交爬虫引擎写入mongo。   parse\_follow会解析用户列表,同时把动态的人员列表POST请求发送只引擎,回调函数是parse\_post\_follow,把解析好的用户主页链请求也发送到引擎,人员关系写入mongo。   parse\_post\_follow单纯解析用户列表,提交用户主页请求至引擎。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

memcpy0

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值