爬取知乎上搞笑视频,一顿爆笑送给大家

     作者:Huangwei AI

     来源:Python与机器学习之路

最近小编经常刷知乎上的一个问题“你见过哪些是「以为是个王者,结果是个青铜」的视频或图片?”。从这个问题我们就已经可以看出来里面的幽默成分了,点进去看果然是笑到停不下来。于是,我想一个个点进去看,还不如把这些视频都下载下来,享受一顿爆笑。

01

获取url

我们使用Google浏览器的“开发者工具”获取网页的url,然后用requests.get函数获得json文件,再使用json.loads函数转换成Python对象:

url = "https://www.zhihu.com/api/v4/questions/312311412/answers?include=data%5B%2A%5D.is_normal%2Cadmin_closed_comment%2Creward_info%2Cis_collapsed%2Cannotation_action%2Cannotation_detail%2Ccollapse_reason%2Cis_sticky%2Ccollapsed_by%2Csuggest_edit%2Ccomment_count%2Ccan_comment%2Ccontent%2Ceditable_content%2Cvoteup_count%2Creshipment_settings%2Ccomment_permission%2Ccreated_time%2Cupdated_time%2Creview_info%2Crelevant_info%2Cquestion%2Cexcerpt%2Crelationship.is_authorized%2Cis_author%2Cvoting%2Cis_thanked%2Cis_nothelp%2Cis_labeled%3Bdata%5B%2A%5D.mark_infos%5B%2A%5D.url%3Bdata%5B%2A%5D.author.follower_count%2Cbadge%5B%2A%5D.topics&limit=20&offset="+str(i*20)+"&platform=desktop&sort_by=default"r = requests.get(url,headers = kv)dicurl = json.loads(r.text)

02

获取content

我们使用谷歌浏览器的一个开发者工具JSONview,可以看到打开的url中有一个content,这里面就是我们要找的回答内容,视频url也在里面。将返回的json转化成python对象后,获取其中content里面的内容。也就是说,我们获得了每一个回答的内容,包括了视频的地址。

for k in range(20):#每条dicurl里可以解析出20条content数据    name = dicurl["data"][k]["author"]["name"]    ID = dicurl["data"][k]["id"]    question = dicurl["data"][k]["question"]["title"]    content = dicurl["data"][k]["content"]    data_lens = re.findall(r'data-lens-id="(.*?)"',content)

03

获得视频地址

打开获取的content,找到href后面的url,打开看一下打开后视频正是我们要的内容,但是发现url不是我们获取的真实地址。仔细观察后发现,这个url发生了跳转。想要知道如何跳转来的,我们再次F12,打开开发者工具,发现请求了一个新的URL。观察发现,其实后面一串数字就是之前的data-lens-id。

对这个地址进行构造:

videoUrl = "https://lens.zhihu.com/api/v4/videos/"+str(data_lens[j])R = requests.get(videoUrl,headers = kv)Dicurl = json.loads(R.text)playurl = Dicurl["playlist"]["LD"]["play_url"]#print(playurl)#跳转后的视频urlvideoread = request.urlopen(playurl).read()

完成之后,我们就可以下载视频了。

完整版代码:

from urllib import requestfrom bs4 import BeautifulSoupimport requestsimport reimport jsonimport mathdef getVideo():    m = 0#计数字串个数    num = 0#回答者个数    path = u'/home/zhihuvideo1'    #path = u'/home/zhihuimage'    kv = {'user-agent':'Mozillar/5.0'}    for i in range(math.ceil(900/20)):        try:            url = "https://www.zhihu.com/api/v4/questions/312311412/answers?include=data%5B%2A%5D.is_normal%2Cadmin_closed_comment%2Creward_info%2Cis_collapsed%2Cannotation_action%2Cannotation_detail%2Ccollapse_reason%2Cis_sticky%2Ccollapsed_by%2Csuggest_edit%2Ccomment_count%2Ccan_comment%2Ccontent%2Ceditable_content%2Cvoteup_count%2Creshipment_settings%2Ccomment_permission%2Ccreated_time%2Cupdated_time%2Creview_info%2Crelevant_info%2Cquestion%2Cexcerpt%2Crelationship.is_authorized%2Cis_author%2Cvoting%2Cis_thanked%2Cis_nothelp%2Cis_labeled%3Bdata%5B%2A%5D.mark_infos%5B%2A%5D.url%3Bdata%5B%2A%5D.author.follower_count%2Cbadge%5B%2A%5D.topics&limit=20&offset="+str(i*20)+"&platform=desktop&sort_by=default"            r = requests.get(url,headers = kv)            dicurl = json.loads(r.text)            for k in range(20):#每条dicurl里可以解析出20条content数据                name = dicurl["data"][k]["author"]["name"]                ID = dicurl["data"][k]["id"]                question = dicurl["data"][k]["question"]["title"]                content = dicurl["data"][k]["content"]                data_lens = re.findall(r'data-lens-id="(.*?)"',content)                print("正在处理第" + str(num+1) + "个回答--回答者昵称:" + name + "--回答者ID:" + str(ID) + "--" + "问题:" + question)                num = num + 1  # 每次碰到一个content就增加1,代表回答者人数                for j in range(len(data_lens)):                    try:                        videoUrl = "https://lens.zhihu.com/api/v4/videos/"+str(data_lens[j])                        R = requests.get(videoUrl,headers = kv)                        Dicurl = json.loads(R.text)                        playurl = Dicurl["playlist"]["LD"]["play_url"]                        #print(playurl)#跳转后的视频url                        videoread = request.urlopen(playurl).read()                                                fileName = path +"/" + str(m+1) + '.mp4'                        print ('===============================================')                        print(">>>>>>>>>>>>>>>>>第---" + str(m+1) + "---个视频下载完成<<<<<<<<<<<<<<<<<")                        videoname = open(fileName,'wb')                                                videoname.write(videoread)                        m = m+1                    except:                        print("此URL为外站视频,不符合爬取规则")        except:            print("构造第"+str(i+1)+"条json数据失败")
if __name__ == "__main__": getVideo()

跑这个程序需要注意的是需要按照代码存储视频的路径建立一个文件夹:

04

结果

经过一段时间爬虫,我们最终获得了七百多条视频:

给大家展示几个个人觉得比较搞笑的吧:

◆ ◆ ◆  ◆ ◆

长按二维码关注我们


数据森麟公众号的交流群已经建立,许多小伙伴已经加入其中,感谢大家的支持。大家可以在群里交流关于数据分析&数据挖掘的相关内容,还没有加入的小伙伴可以扫描下方管理员二维码,进群前一定要关注公众号奥,关注后让管理员帮忙拉进群,期待大家的加入。

管理员二维码:

猜你喜欢

 笑死人不偿命的知乎沙雕问题排行榜

 我用Python纪念了那些被烂片收割的智商税!

 互联网大佬学历&背景大揭秘,看看是你的老乡还是校友

 上万条数据撕开微博热搜的真相!

 你相信逛B站也能学编程吗? 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值