第一次的爬虫经历
笔者大学寒假期间呆在家里,无事可做,秉承这时间就是金钱的理念,于是便开始了爬虫的学习。由于笔者就读于一所专精于电子信息技术的211大学,虽然之前没有系统的学过python,但基本的语法还是能看懂的。废话不多说,直接开始今天的正题。
利用爬虫保存网络上的图片
利用爬虫保存图片,首先就要用到python中的requests库。安装requests库的方法这里不再赘述。
首先我们找到想要保存的图片,这里我们以b站的壁纸为例,找到壁纸,单击右键,选中复制图片地址,将其赋给url
`url = 'https://i0.hdslb.com/bfs/album/2af6b6041a7e762034fe607365af59ec4dad7573.jpg'`
创建一个将图片保存的目录。将url最后的一个’/'后的名称作为文件名保存
root = "D://pics//"
path = root + url.split('/')[-1] #截取url最后的名字作为文件名保存
然后利用get方法得到他的url。将get的返回值写入一个新建的文件中,这样就完成了保存网上图片的操作。
r = requests.get(url)
with open(path, 'wb') as f:#建立一个文件
f.write(r.content)#将返回的文件写入上述文件
f.close()
print("文件保存成功")
完整的代码如下:
import requests
import os
url = "https://i0.hdslb.com/bfs/album/2af6b6041a7e762034fe607365af59ec4dad7573.jpg"
root = "D://pics//"
path = root + url.split('/')[-1]#截取url最后的名字作为文件名保存
try:
if not os.path.exists(root):#判断根目录是否存在,不存在建立根目录
os.mkdir(root)
if not os.path.exists(path):
r = requests.get(url)
with open(path, 'wb') as f:#建立一个文件
f.write(r.content)#将返回的文件写入上述文件
f.close()
print("文件保存成功")
else:
print("文件已存在")
except:
print("爬取失败")
这里我们还需要os库来判断根目录是否存在以及若不存在创建根目录。
这是笔者第一次写博客,如有错误的地方请大家多多包涵,并向笔者提出意见。