基于python的urllib 库抓取网站上的图片

最近写了个爬虫实例,有python环境的话就可以直接运行了。

运行效果是这样的:

完整代码如下:

import urllib
import urllib.request
import re
import random
import time
import os


#目标网址:
imagePath="https://pic.netbian.com"

#用户代理池
uapools=[
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36 Edg/117.0.2045.31",
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/116.0.0.0 Safari/537.36",
]

#//创建保存图片的目录
imageSavePath="D:\\myimg\\"
if not os.path.isdir(imageSavePath):
    os.mkdir(imageSavePath)

def UA():
    opener=urllib.request.build_opener()
    thisua=random.choice(uapools)
    ua=("User-Agent",thisua)
    opener.addheaders=[ua]
    urllib.request.install_opener(opener)
    print("当前使用ua:"+str(thisua))

UA()
thisurl="https://pic.netbian.com/4kqiche?s=98575646"
data=urllib.request.urlopen(thisurl).read().decode("gbk","ignore")
pat=re.compile('<img src="(/uploads/.*?)".alt="(.*?)"./>')
rst=re.findall(pat,data)

for j in rst:
    link=j[0]
    name=j[1]

    imageUrl=''.join(imagePath+link)

    res=urllib.request.urlretrieve(imageUrl,imageSavePath+"\\"+name+".jpg")
    print(name+".jpg 获取成功....")
 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值