python爬虫论文摘要怎么写_Python 爬虫没有思路?可以看看这篇文章

原标题:Python 爬虫没有思路?可以看看这篇文章

可以说爬虫是学习 Python 的入门必修课。当能独立写出第一个完整的爬虫的时候,我们已经迈出了一大步。因为在这过程中,我们已经学会了如何查看文档,学会使用 Python 相关库的操作,怎样使用 Chrome 的开发者工具(相关工具)和把抓取的数据保存到数据库中等等一系列操作,当然收获最多的还是学习 Python 的自信心。

下面以抓取知乎图片为例,迈出我们自学 Python 爬虫的第一步。

整体思路

在浏览知乎的时候,经常会看到一些有趣的问题,例如有什么万能表情包?,回答中网友分享了收藏多年的表情。但是近1500多条回答,手动保存表情不现实,所以使用爬虫帮我们完成这项工作。

首先我们需要做的是收集此类问题。获取问题的 ID(URL 中 question 后的 ID),构建爬虫任务池。收集问题的工作可以交给爬虫,但是为了抓取的图片都符合预期,建议先手动收集此类问题。然后将问题的 ID 存入数据库中,爬虫运行时读库获取需要爬取的目标贴。通过写一个爬虫,生成任务池多线程调用。将获取到的答案数据清洗,只收集答案中的图片。本案例我们使用 mongo 数据库,因为 mongo 数据库简单方便,也方便我们之后增减字段。

存入库中的结构和知乎的类似:答案集合保存所有答案,每一个答案是一条独立的文档。

具体类似这种结构:

{

"Answer": [

{

"id": 1,

"question_id": "xxx",

"title": "xxx",

"author": "xxx",

"content: [

"imgUrl",

"..."

]

},

{

"id": 2,

"question_id": "xxx",

"title": "xxx",

"author": "xxx",

"content: [

"imgUrl",

"..."

]

},

...

]

}

其中Answer为数据库的集合,集合中的每一项是一条回答。用这种格式保存的好处是我们只需通过贴子的 ID 查询答案即可,保存起来也非常方便。

知乎爬虫

开始之前

在开始之前需要安装项目依赖,只用到两个常用库:

python3 -m pip install requests pymongo

分别用来请求 URL 和操作数据库。安装完成后记得启动mongo服务。

Spider

爬虫代码比较简单,关键找到知乎答案的接口,解析即可。而且这个接口也是非常好找的。此处用到 Chrome 的开发者工具。

a6743fa919de4942916fee8afa2b6236.jpeg

接口也没有任何加密或权限限制,在请求头中加入Cookies就可以了。

通过 Chrome 开发者工具分析,请求携带了如下参数,我们只用到limit和offset,用来控制接口返回的数量和返回的位置。

include: data[*].is_normal,admin_closed_comment,reward_info,is_collapsed,annotation_action,annotation_detail,collapse_reason,is_sticky,collapsed_by,suggest_edit,comment_count,can_comment,content,editable_content,voteup_count,reshipment_settings,comment_permission,created_time,updated_time,review_info,relevant_info,question,excerpt,relationship.is_authorized,is_author,voting,is_thanked,is_nothelp,is_labeled,is_recognized,paid_info;data[*].mark_infos[*].url;data[*].author.follower_count,badge[*].topics

offset:

limit: 3

sort_by: default

platform: desktop

完整的请求 URL 是:

https://www.zhihu.com/api/v4/questions/21115811/answers?include=data%5B*%5D.is_normal%2Cadmin_closed_comment%2Creward_info%2Cis_collapsed%2Cannotation_action%2Cannotation_detail%2Ccollapse_reason%2Cis_sticky%2Ccollapsed_by%2Csuggest_edit%2Ccomment_count%2Ccan_comment%2Ccontent%2Ceditable_content%2Cvoteup_count%2Creshipment_settings%2Ccomment_permission%2Ccreated_time%2Cupdated_time%2Creview_info%2Crelevant_info%2Cquestion%2Cexcerpt%2Crelationship.is_authorized%2Cis_author%2Cvoting%2Cis_thanked%2Cis_nothelp%2Cis_labeled%2Cis_recognized%2Cpaid_info%3Bdata%5B*%5D.mark_infos%5B*%5D.url%3Bdata%5B*%5D.author.follower_count%2Cbadge%5B*%5D.topics&offset=&limit=3&sort_by=default&platform=desktop

只要动态更改其中的question,limit和offset就可以了。通过接口返回的答案总数,判断需要翻多少页,当然也可以通过接口返回的next和previous来获取下一页或前一页答案链接。

当然在翻页抓取的时候切记设置睡眠时间,放在服务器上爬的慢一点也没关系。我们控制好频率,不要影响到知乎的正常服务。

请求成功后我们就可以根据自己的需求,存储数据了,至于如何判断答案中是否有图片,可以参考以下代码。

使用到了lxml库,也可以使用re库代替。

# 部分代码

@staticmethod

def parse_content(content):

"""解析答案中的 content,直接获取图片"""

if "

img_list = set(etree.HTML(content).xpath("//img/@data-original"))

return list(img_list)

else:

return []

先判断回答中是否有img标签,如果没有直接返回空列表,如果有的话,通过data-original属性获取原始大小的图片链接。也是返回一个包含图片链接的列表。

在入库的时候,我们通过parse_content的返回判断是否需要入库,如果是[]就跳过,如果列表不为空就入库。这样在之后根据作者展示数据的时候不会只显示作者信息,却没有回答的情况了(其实是该作者回答中只有问题没有图片)。

调用爬虫

当我们完成上述操作,就可以单独写一个文件使用多线程调用爬虫了。

from concurrent.futures import ThreadPoolExecutor

qid_list = db.get_all_question

crawler_list = [ZhihuSpider(qid).run for qid in qid_list]

with ThreadPoolExecutor(max_workers=4) as executor:

future = [executor.submit(task) for task in crawler_list]

for f in future:

f.result

qid_list来自查库获取所有的知乎贴子 ID。使用concurrent.futures库并行执行任务,在我们的代码里使用ThreadPoolExecutor,它使用线程池来异步执行调用。max_workers控制最多线程的使用,本例中使用最多4个线程执行任务。ThreadPoolExecutor让我们使用多线程时更加简单。具体文档见 ThreadPoolExecutor。

总结

项目的完整代码见 Github:

https://github.com/alpha87/zhihuFish。

代码比较简单,项目只要思路明确,分而治之,实现了所有的小部分,也就实现了整个项目的大部分。

最后总结一下整体思路:我们先把需要抓取的 ID 存入数据库,作为任务池,爬虫调取任务池中的 ID,将爬取结果再保存到数据库。

等我们学会了 Python 爬虫,再学 Web 开发的时候,还能将我们抓取的结果展示出来,做一个表情包大全网站。一不小心又学习了 Python Web 开发,多好。

本文作者:简讯,一名自学编程的业余码农

个人博客:https://lijianxun.top/

写的不错?赞赏一下

1ccf9e4534744c1ea3c51fb8ab93c3ab.jpeg

长按扫码赞赏我

● 百度近五年最年轻高管团队出炉,能否“翻盘”成功?

责任编辑:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值