突破次元壁障,Python爬虫获取二次元女友

(又到了常见的无中生友环节了)我有一个朋友,最近沉迷二次元,想要与喜欢的二次元角色度过一生,就像11区与初音未来结婚的阿宅那样。于是作为为朋友两肋插刀的正义的化身,决定为其充满魔幻现实的人生再添加一抹亮色,让他深陷其中无法自拔,于是在二次元的宇宙里,帮他用Python获取了二次元女友(们)。

封面

尽管二次元知识人类幻想出来的唯美世界,但其本质上还是我们心中模糊的对梦想生活的憧憬和对美好未来的期望,这卡哇伊的颜,爱了爱了,我给你讲。

程序说明


通过爬取知名二次元网站——触站,获取高清动漫图片,并将获取的webp格式的图片转化为更为常见的png格式图片。

二次元女友获取程序


使用requests库请求网页内容,使用BeautifulSoup4解析网页,最后使用PIL库将webp格式的图片转化为更为常见的png格式图片。

观察网页结构

首先选择想要获取的图片类型,这里已女孩子为例,当然大家也可以选择生活或者脚掌,甚至是男孩子

选择标签进入女孩子标签页面,观察页面链接,爬取多个页面,查看第2页链接为:

https://www.huashi6.com/tags/161?p=2

第3页链接为:

https://www.huashi6.com/tags/161?p=3

可以看出,不同页面网址仅改变了页面数字,因此可以构造如下模式,并使用循环,爬取所有页面:

url_pattern = “https://www.huashi6.com/tags/161?p={}”

for i in range(1, 20):

url = url_pattern.format(i)

接下来,在爬取网页前,使用浏览器“开发者工具”,观察网页结构。首先尝试定位图片元素:

定位图片元素

于是自然想到使用find_all语法获取所有class=‘v-lazy-img v-lazy-image-loaded’的标签:

img_url = soup.find_all(‘img’, attr={‘class’: ‘v-lazy-img v-lazy-image-loaded’})

但是发现并未成功获取,于是经过进一步探索发现,其图片信息是在script元素中动态加载的:

图片信息

需要注意的是,在请求页面时,可以在构造请求头时,添加'Cookie'键值,但是没有此键值也能够运行。

headers = {

‘User-Agent’:‘Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:86.0) Gecko/20100101 Firefox/86.0’,

根据自己的情况修改Cookie值

#‘Cookie’:‘’

}

url_pattern = “https://www.huashi6.com/tags/161”

response = requests.get(url=url, headers=headers)

页面解析


使用beautifulsoup解析页面,获取JS中所需数据:

results = soup.find_all(‘script’)[1]

为了能够使用re解析获取内容,需要将内容转换为字符串:

image_dirty = str(results)

接下来构造正则表达式获取图片地址:

pattern = re.compile(item, re.I|re.M)

然后查找所有的图片地址:

result_list = pattern.findall(image_dirty)

为了方便获取所需字段,构造解析函数

def analysis(item,results):

pattern = re.compile(item, re.I|re.M)

result_list = pattern.findall(results)

return result_list

打印获取的图片地址:

urls = analysis(r’“path”:“(.*?)”', image_dirty)

urls[0:1]

发现一堆奇怪的字符:

‘images\u002Fresource\u002F2021\u002F06\u002F20\u002F906h89635p0.jpg’,

这是由于网页编码的原因造成的,由于一开始使用utf-8方式解码网页,并不能解码Unicode

response.encoding = ‘utf-8’

response.raise_for_status()

soup = BeautifulSoup(response.text, ‘html.parser’)

因此虽然可以通过以下方式获取原始地址:

url = ‘images\u002Fresource\u002F2021\u002F05\u002F22\u002F90h013034p0.jpg’

decodeunichars = url.encode(‘utf-8’).decode(‘unicode-escape’)

但是我们可以通过response.encoding = 'unicode-escape'进行更简单的解码,缺点是网页的许多中文字符会变成乱码,但是字不重要不是么?看图!

图片

创建图片保存路径

为了下载图片,首先创建图片保存路径:

创建图片保存路径

if not os.path.exists(webp_file):

os.makedirs(webp_file, exist_ok=True)

if not os.path.exists(png_file):

os.makedirs(png_file, exist_ok=True)

图片下载

当我们使用另存为选项时,发现格式为webp,但是上述获取的图片地址为jpgpng,如果直接存储为jpgpng格式,会导致格式错误。

图片格式因此需要重新构建webp格式的文件名:

name = img.split(‘/’)[-1]

name = name.split(‘.’)[0]

name_webp = name + ‘.webp’

由于获取的图片地址并不完整,需要添加网站主页来构建图片地址:

from urllib.request import urljoin

domain = ‘https://img2.huashi6.com’

img_url = urljoin(domain,img)

接下来就是下载图片了:

r = requests.get(img_url,headers=headers)

if r.status_code == 200:

with open(name_webp, ‘wb’) as f:

f.write(r.content)

格式转换

最后,由于得到的图片是webp格式的,如果希望得到更加常见的png格式,需要使用PIL库进行转换:

image_wepb = Image.open(name_webp)

image_wepb.save(name_png)

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

img

img

img

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

392)]

[外链图片转存中…(img-4HaNcp65-1713806275393)]

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值