python爬虫知乎图片_Python爬取知乎图片代码实现解析

首先,需要获取任意知乎的问题,只需要你输入问题的ID,就可以获取相关的页面信息,比如最重要的合计有多少人回答问题。

问题ID为如下标红数字

编写代码,下面的代码用来检测用户输入的是否是正确的ID,并且通过拼接URL去获取该问题下面合计有多少答案。

import requests

import re

import pymongo

import time

DATABASE_IP = '127.0.0.1'

DATABASE_PORT = 27017

DATABASE_NAME = 'sun'

client = pymongo.MongoClient(DATABASE_IP,DATABASE_PORT)

db = client.sun

db.authenticate("dba", "dba")

collection = db.zhihuone # 准备插入数据

BASE_URL = "https://www.zhihu.com/question/{}"

def get_totle_answers(article_id):

headers = {

"user-agent": "需要自己补全 Mozilla/5.0 (Windows NT 10.0; WOW64)"

}

with requests.Session() as s:

with s.get(BASE_URL.format(article_id),headers=headers,timeout=3) as rep:

html = rep.text

pattern =re.compile( '')

s = pattern.search(html)

print("查找到{}条数据".format(s.groups()[0]))

return s.groups()[0]

if __name__ == '__main__':

# 用死循环判断用户输入的是否是数字

article_id = ""

while not article_id.isdigit():

article_id = input("请输入文章ID:")

totle = get_totle_answers(article_id)

if int(totle)>0:

zhi = ZhihuOne(article_id,totle)

zhi.run()

else:

print("没有任何数据!")

完善图片下载部分,图片下载地址在查阅过程中发现,存在json字段的content中,我们采用简单的正则表达式将他匹配出来。细节如下图展示

2019917100853351.jpg?201981710953

编写代码吧,下面的代码注释请仔细阅读,中间有一个小BUG,需要手动把pic3修改为pic2这个地方目前原因不明确,可能是我本地网络的原因,还有请在项目根目录先创建一个imgs的文件夹,用来存储图片

def download_img(self,data):

## 下载图片

for item in data["data"]:

content = item["content"]

pattern = re.compile('

(.*?)')

imgs = pattern.findall(content)

if len(imgs) > 0:

for img in imgs:

match = re.search('(.*?)

download = match.groups()[0]

download = download.replace("pic3", "pic2") # 小BUG,pic3的下载不到

print("正在下载{}".format(download), end="")

try:

with requests.Session() as s:

with s.get(download) as img_down:

# 获取文件名称

file = download[download.rindex("/") + 1:]

content = img_down.content

with open("imgs/{}".format(file), "wb+") as f: # 这个地方进行了硬编码

f.write(content)

print("图片下载完成", end="\n")

except Exception as e:

print(e.args)

else:

pass

运行结果为

2019917100853352.jpg?201981710953

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

本文标题: Python爬取知乎图片代码实现解析

本文地址: http://www.cppcns.com/jiaoben/python/274471.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
需要使用Python编程语言来乎问题下的所有回答。具体步骤如下: 1. 首先需要安装Python的requests和beautifulsoup4库,用于发送HTTP请求和解析HTML页面。 2. 获乎问题页面的URL,可以手动复制粘贴,或者使用爬虫自动获。 3. 使用requests库发送GET请求,获乎问题页面的HTML源代码。 4. 使用beautifulsoup4库解析HTML源代码,获所有回答的信息。 5. 对每个回答进行解析,获回答的文本、作者、点赞数、评论数等信息。 6. 将获到的信息存储到本地文件或数据库中。 下面是一段示例代码,可以乎某个问题下的所有回答: ```python import requests from bs4 import BeautifulSoup # 乎问题页面的URL url = 'https://www.zhihu.com/question/xxxxxx' # 发送GET请求,获页面HTML源代码 response = requests.get(url) html = response.text # 解析HTML页面,获所有回答的信息 soup = BeautifulSoup(html, 'html.parser') answers = soup.find_all('div', class_='List-item') # 遍历每个回答,解析并存储信息 for answer in answers: # 解析回答文本、作者、点赞数、评论数等信息 text = answer.find('div', class_='RichContent-inner').get_text() author = answer.find('div', class_='ContentItem-head').get_text() upvotes = answer.find('button', class_='Button VoteButton VoteButton--up').get_text() comments = answer.find('button', class_='Button ContentItem-action Button--plain Button--withIcon Button--hoverCard').get_text() # 将信息存储到本地文件或数据库中 with open('answers.txt', 'a', encoding='utf-8') as f: f.write(f'{author}\n{text}\n赞同数:{upvotes} 评论数:{comments}\n\n') ``` 需要注意的是,乎数据属于个人行为,需要遵守乎的相关规定,不得用于商业用途。另外,速度也需要适当控制,避免给服务器造成过大的负担。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值