教你用Python采集阴阳师式神全图鉴图片

本文介绍了如何使用Python 3.6和相关库进行网络爬虫,通过分析网页和抓包,提取式神ID,解析JSON数据,构建并保存式神图片地址。
摘要由CSDN通过智能技术生成

导语

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

基本环境配置

  • python 3.6

  • pycharm

  • requests

目标网页


经过一些系列的网页分析,可以发现它的图片地址

https://yys.res.netease.com/pc/zt/20161108171335/data/shishen_big_beforeAwake/201.png
https://yys.res.netease.com/pc/zt/20161108171335/data/shishen_big_afterAwake/201.png
https://yys.res.netease.com/pc/zt/20161108171335/data/shishen_skin/201-1.png


多看几张式神的图片后可以发现,每个图片所改变的是式神的 ID 值

可以通过开发者工具抓包,找到数据接口

以下是一个使用Python爬虫获取阴阳师神技能的示例代码: ```python import requests from bs4 import BeautifulSoup import os # 创建保存图片的文件夹 def create_folder(path): if not os.path.exists(path): os.mkdir(path) # 下载图片 def download_image(url, path): response = requests.get(url) with open(path, 'wb') as f: f.write(response.content) # 爬取阴阳师神技能 def crawl_shishen_skills(): # 阴阳师神名称列表 shishen_name = ['神1', '神2', '神3'] # 创建保存图片的文件夹 create_folder("C:/Users/diana/PycharmProjects/爬虫/图片/阴阳师/") for ii in range(len(shishen_name)): # 创建神文件夹 os.mkdir("C:/Users/diana/PycharmProjects/爬虫/图片/阴阳师/"+shishen_name[ii]) # 切换到神文件夹 os.chdir("C:/Users/diana/PycharmProjects/爬虫/图片/阴阳师/"+shishen_name[ii]) # 爬取神技能页面 url = "http://www.example.com/神技能页面" # 替换为实际的神技能页面链接 response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 获取技能图片链接并下载 skill_images = soup.find_all('img', class_='skill-image') for i, image in enumerate(skill_images): image_url = image['src'] image_path = shishen_name[ii] + "_skill" + str(i+1) + ".jpg" download_image(image_url, image_path) # 调用爬取函数 crawl_shishen_skills() ``` 请注意,上述代码中的链接和路径需要根据实际情况进行替换。此外,你还需要安装`requests`和`beautifulsoup4`库。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值