爬虫案例01:网站图片的下载

# PyQuery库 主要是用来解析网站的
import requests
from pyquery import PyQuery
# 要爬取的网站地址
url="https://pvp.qq.com/web201605/herolist.shtml"
# 获取url中的内容
html=requests.get(url).content
# print(html)
# 解析得到页面元素内容
doc=PyQuery(html)
# 定位图片所在位置,并把他转换成键值对
itmes=doc('.herolist>li').items()
print(itmes)
for item in itmes:
    # 获取图片src属性的值
    url=item.find('img').attr('src')
    print(url)
    # 重新拼接图片的地址
    urls="https:"+url
    print(urls)
    # 获取a标签的文本内容
    name=item.find('a').text()
    print(name)
    # 获取新的地址内容
    url_content=requests.get(urls).content
    # 开打路径下的文件
    with open('picture/picture'+name+'.jpg','wb')as file:
        # 写进文件的内容
        file.write(url_content)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值