电脑壁纸知乎_分享更多美——你一定会喜欢的4K电脑壁纸【011】简约动漫风壁纸...

这里是喜欢收藏壁纸的安妮

微信公众号---《安妮女王的精选壁纸》

原图获取可以去公众号(公众号内有云盘链接),知乎会压缩图片

公众号主更4K+电脑壁纸

(图片源自网络,侵删)

点赞收藏加关注,获取壁纸不迷路!

ecca0b13911f854f5f31f1523bf506c0.png

dc4c4188184e60b46784364cc1febb43.png

6d6b244d86effe211ecc73faf05a8e76.png

1aaccb5d1e2b95ccae357bf0518865ec.png

8ae524b69fb160a0c03693f11de278a5.png

0c85bc7013fbdea58cebb1755744640e.png

2f7a29c17bfd8a35dd2e61d752100312.png

7b5a372244a36e06b6f2cc366a9ceca2.png

efa1c01b1f9317695f05bbc6137ca9a7.png

20946631e81893365ed549121988d5e0.png

9388704bf25c6b4fc49e3f3a4c0605ae.png

db5e835787708fafbc594827424dded8.png

08a865ee1b8d860ea740fbdeb6041c89.png

2c2bf4d479efdd3adeb442f6683c9c1d.png

ed1cd5e2fd2c96e36f943e0df24b04a2.png

d720ede00e341f4a30cf73877def5f92.png

daf4c0793e2aaea82c5bf573b52f7028.png

6702fc902329e8df446728cb8259b8e3.png

2f225d6988367cc90e79bd4d07c100d4.png

f768672df6b067ebbd65f0774c55f093.png

e661ebbf9a1631329ed9b1d8a68f250f.png

17de0f99fa0494dde2d6d912a7030008.png

82940d03a27eb41735d8a39dbe9ee96b.png

5f564aa7aa11f91feb9e9502f2d1534f.png

061245d1cc5a225f81e20b44a52ede57.png

b7f96ab2b5cd2e2cc2b3278ce100759b.png

89afb45330bfde3bcdb110caa7599bf1.png

0c0b21c21afa6a978ae86bb6c426fab5.png

01a13d065d20b3046511ee1cf6fb43d6.png

7d9606632c0f6c3b273769894a1306b4.png

2c768592bae7a70aed4d74ec86232218.png

c7d29ac6e7636c8f4951ef44b8e59c65.png

a24deb02d16ccd9daa148cc8b58d2a27.png

b043ff76936ac6c1243e76c37ac58952.png

e5d198f918a70ea0fb6553962bb11457.png

d4f35137fbd3fab5157dad7304fc4d6a.png

d9298cb244847c93b61d345eafada5e6.png
以下是Python爬取知乎数据的代码实现,其中使用了八爪鱼爬虫工具和数据预处理库pandas: ```python import requests import json import pandas as pd from octopus import Octopus # 设置请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299' } # 构造请求url def get_url(keyword, offset): url = 'https://www.zhihu.com/api/v4/search_v3?t=general&q={}&correction=1&offset={}&limit=20&lc_idx=0&show_all_topics=0&search_hash_id='.format(keyword, offset) return url # 爬取知乎数据并保存为json文件 def crawl_data(keyword): otto = Octopus( concurrency=8, auto_start=True, expiration_in_seconds=120, raise_all_exceptions=True, worker_lifespan_in_seconds=120 ) result = [] for i in range(0, 100, 20): url = get_url(keyword, i) otto.enqueue(get_data, url) otto.wait() for res in otto.results(): result += res with open('zhihu.json', 'w', encoding='utf-8') as f: json.dump(result, f, ensure_ascii=False) # 解析json文件并使用pandas进行数据预处理 def process_data(): with open('zhihu.json', 'r', encoding='utf-8') as f: data = json.load(f) results = [] for item in data: result = {} result['问题'] = item['highlight']['title'] result['链接'] = 'https://www.zhihu.com/question/{}'.format(item['object']['question']['id']) result['答案'] = item['highlight']['description'] results.append(result) df = pd.DataFrame(results) df.to_excel('zhihu.xlsx', index=False) # 获取数据 def get_data(url): response = requests.get(url, headers=headers) data = response.json()['data'] result = [] for item in data: if item['object']['type'] == 'answer': result.append(item) return result if __name__ == '__main__': crawl_data('Python') process_data() ``` 此代码实现了爬取知乎关于“Python”的数据,并将数据保存成json文件,再使用pandas进行数据预处理,最终将结果保存成Excel文件。你可以根据自己的需求修改关键词以及保存的文件格式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值