电脑壁纸知乎_分享更多美——你一定会喜欢的4K电脑壁纸【005】鬼刀篇(持续更新)...

0c6e9f19b065dd40294943077fa4f455.png

我是爱壁纸的安妮

自己做了个公众号---《安妮女王的精选壁纸》,主更4K+电脑壁纸

喜欢高质量美图的朋友快来关注吧

先随机上点图吧,以后有时间会来知乎更新的

原图获取可以去公众号,知乎会压缩图片

希望大家会喜欢(图片源自网络,侵删)

不做伸手党,记得点赞收藏哦!

2020.10.09更新

26d3469368c8c65dac661a66427770c6.png

d46f693a64dc2073f6e9292316e05b61.png

686a466d51603be77cd704e26f520828.png

f64a1831399f1bfed80260c007f5be29.png

249da028a334439061d52a2426a133d2.png

7a24b81915d54aab0766e7f0cb4415fd.png

42d007a13103c1f0e0e036b25a274824.png

d2139d641c9c6fc7d498ad3592734516.png

fb9660fba4b222d9307021b5177b5ee1.png

844a045326b48dcf599d290a6b1b8186.png

8835ae78b60041d8d558d8f46fe149a1.png

8ec94821102cca54d753c6a4b6f017e5.png

1dcbf59a87aeb547fa2f2c6b37349fd0.png

1b49457a6f5a16f4fa5f7be46a17101c.png

0fdd4df42a8d571f4bc1fa93cbbfe8fa.png

020b34c25a1713a4bcb7079ebba4b90f.png

da71d2249426fb7ffa5721a5ca95a182.png

f3a0e43d376c33a6b38336894249f6eb.png

c793f8096aa9a008d273c87829fa3952.png

03f713582298ae8fe28a26cf36bd2ef7.png

beb73d21ca0e089f33a7a0ab9cf441dd.png

cecbaae1323de00753547b8493654461.png

44b98bcb0a44023e3fb853f6357b1dbf.png

b44fba01e2584a6a808086dc25273532.png

353890defd024d213dd41951c0be711e.png

a67999475bd55daf8352ad594cdf92e7.png

77c156184b947c8d79753ad1f5e3a816.png

82b1df2b67265ad1504e9f57b904a12a.png
以下是Python爬取知乎数据的代码实现,其中使用了八爪鱼爬虫工具和数据预处理库pandas: ```python import requests import json import pandas as pd from octopus import Octopus # 设置请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299' } # 构造请求url def get_url(keyword, offset): url = 'https://www.zhihu.com/api/v4/search_v3?t=general&q={}&correction=1&offset={}&limit=20&lc_idx=0&show_all_topics=0&search_hash_id='.format(keyword, offset) return url # 爬取知乎数据并保存为json文件 def crawl_data(keyword): otto = Octopus( concurrency=8, auto_start=True, expiration_in_seconds=120, raise_all_exceptions=True, worker_lifespan_in_seconds=120 ) result = [] for i in range(0, 100, 20): url = get_url(keyword, i) otto.enqueue(get_data, url) otto.wait() for res in otto.results(): result += res with open('zhihu.json', 'w', encoding='utf-8') as f: json.dump(result, f, ensure_ascii=False) # 解析json文件并使用pandas进行数据预处理 def process_data(): with open('zhihu.json', 'r', encoding='utf-8') as f: data = json.load(f) results = [] for item in data: result = {} result['问题'] = item['highlight']['title'] result['链接'] = 'https://www.zhihu.com/question/{}'.format(item['object']['question']['id']) result['答案'] = item['highlight']['description'] results.append(result) df = pd.DataFrame(results) df.to_excel('zhihu.xlsx', index=False) # 获取数据 def get_data(url): response = requests.get(url, headers=headers) data = response.json()['data'] result = [] for item in data: if item['object']['type'] == 'answer': result.append(item) return result if __name__ == '__main__': crawl_data('Python') process_data() ``` 此代码实现了爬取知乎关于“Python”的数据,并将数据保存成json文件,再使用pandas进行数据预处理,最终将结果保存成Excel文件。你可以根据自己的需求修改关键词以及保存的文件格式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值