python---爬取英雄联盟皮肤图片

爬LOL的皮肤高清图片的大致步骤就是用selenium去爬取英雄联盟所以英雄的皮肤的url地址,然后在用requests库去将图片下载到本地。

 


 

爬取的第一步,先去分析网站。

皮肤图片的位置在官网的资料库,然后点击英雄进入英雄界面

这里就是皮肤的获取地了。

按F12然后定位到图片位置的代码

然后这里就有第一个坑:

一开始他不会显示所有皮肤的代码出来,你要点击其他的皮肤后它才会显示出全部的代码.

然后点进去看,里面就有我们需要的url代码,和图片的名称了。

代码:

def get_pic_url(mapath):
    time.sleep(10)
    namepath = '//ul[@id="skinNAV"]/li'
    name_list = browser.find_elements_by_xpath(namepath)#小框
 

    while len(name_list)<=1:

        browser.refresh()

        time.sleep(5)

    name_list = browser.find_elements_by_xpath(namepath)

    name_list[1].click()
    time.sleep(2)

    lipath = '//*[@id="skinBG"]/li'
    li_list = browser.find_elements_by_xpath(lipath)#大图的

    for i in range(len(li_list)):
        imgpath = '//li['+str(i+1)+']/img'
        x = li_list[i].find_element_by_xpath(imgpath)
        if i ==0:
            name = x.get_attribute('alt')
            picpath = mapath + os.sep + str(name)
            if not os.path.exists(picpath):
                os.makedirs(picpath)  #创建存放图片的文件夹
            else:
                print('文件夹已存在!!')

        pic_name = x.get_attribute('alt').replace('/','')
        pic_url = x.get_attribute('src')
        pic = requests.get(pic_url).content
        with open(picpath+os.sep+pic_name+'.png','wb') as p:
            p.write(pic)

 

定位的方法是用xpath定位的,在F12里可以复制xpath地址

然后在后面加/li,便是获取所有的li里面的数据了。

代码就是先获取这里的地址:

然后实现点击下一个,然后在获取大图的内容。并用

get_attribute

提取出数据名和url,有一些英雄的名字有斜杆的,所有要替换掉,否则会报错,有的时候会刷新不出来网页,就获取不到数据,紧接着报错,加个循环如果获取不到数据就重新获取即可。

 

然后就是做循环爬取所有的英雄的图片

一开始打算用英雄的url实现循环,仔细一看,后面几个的英雄并不是叠加尾数,用url不能循环操作,所有利用selenium的自动化的便利性,做点击,获取图片,然后返回英雄选择界面,再点击下一个等等,这样子做循环。

if __name__ == '__main__':
    cwpath = os.getcwd()
    mpath = cwpath+os.sep+'LOL'
    if not os.path.exists(mpath):
        os.makedirs(mpath)
    else:
        print('文件夹已存在!!')
    browser.get(mainurl)
    time.sleep(5)
    h_path = '//*[@id="jSearchHeroDiv"]/li'
    h_list = browser.find_elements_by_xpath(h_path)
    i = 74
    while i<len(h_list):
        h_list[i].click()
        get_pic_url(mpath)
        time.sleep(2)
        browser.back()
        i+=1
        h_list = browser.find_elements_by_xpath(h_path)

对文件夹的操作,我这里直接保存到项目文件夹下面,用os.getcwd()获取当前路径,也可以相应选择你喜欢的位置,只需要换成绝对路径即可,还有就是文件夹下面的文件夹的时候记得添加一个os.sep,

下面贴上os的常用操作

os.path.sep:#路径分隔符

os.path.altsep: #根目录

os.path.curdir:#当前目录,其实就是一个.。

os.path.pardir:#父目录,其实是两个.。

os.path.abspath(path):#绝对路径

os.path.join(): #常用来链接路径,这个才是最重要的方法。

os.path.split(path): #把path分为目录和文件两个部分,以列表返回

 

最后爬取的效果就是这样的:

 

唯一不足的就是爬取的速度很慢,因为加上太多的等待时间和浏览器操作的时间,不过效果还是可以的。

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值