Python爬虫xpath爬取美女图片

本文带领Python初学者通过XPath解析,学习如何使用requests和lxml库从http://pic.netbian.com/4kmeinv/网站抓取高质量美女图片,包括图片链接和文件名处理,适合入门级学习者.
摘要由CSDN通过智能技术生成

Python爬虫xpath爬取美女图片

似乎学习入门Python爬虫,都会去爬取美女图片。第一篇关于爬虫的博客,也写一个爬取美女图片的小程序吧。

#解析下载图片数据 http://pic.netbian.com/4kmeinv/
import requests
from lxml import etree
import os

url = 'http://pic.netbian.com/4kmeinv/'
#进行UA伪装
headers = {
     'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
}
response = requests.get(url=url,headers=headers)
#可以手动设定响应数据的编码格式
#response.encoding = 'utf-8'
page_text = response.text

#数据解析:src的属性值、alt的属性值
tree = etree.HTML(page_text)
li_list = tree.xpath('//div[@class="slist"]/ul/li')

#创建一个文件夹
if not os.path.exists('./meinv'):
    os.mkdir('./meinv')

for li in li_list:
    img_src = 'http://pic.netbian.com/'+li.xpath('./a/img/@src')[0]  #获取属性src的值
    img_name = li.xpath('./a/img/@alt')[0]+'.jpg'  #获取属性alt的值
    #通用的处理中文乱码的解决方案
    img_name = img_name.encode('iso-8859-1').decode('gbk')
    #print(img_src,img_name)
    #请求图片进行持久化存储
    img_data = requests.get(url=img_src,headers=headers).content
    img_path = 'meinv/'+img_name
    with open(img_path,'wb') as fp:
        fp.write(img_data)
        print('img_name下载成功!')
要使用Python爬虫XPath爬取2345历史天气,你可以按照以下步骤进行操作: 1. 首先,你需要使用Python的requests库发送HTTP请求来获取网页的源代码。你可以使用以下代码示例: ```python import requests url = 'http://example.com' # 替换为你要爬取的网页URL response = requests.get(url) html_data = response.text ``` 2. 接下来,你需要使用XPath来解析网页的源代码并提取所需的数据。根据引用中的示例代码,你可以使用以下代码示例: ```python from lxml import etree tree = etree.HTML(html_data) tr_list = tree.xpath('//table[@class="history-table"]/tr') for tr in tr_list//text()') # 空气质量指数 lst = [d1<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [爬取特定城市的天气数据(2345)](https://blog.csdn.net/qq_40932165/article/details/128685550)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [python爬虫爬取重庆近20年天气信息](https://blog.csdn.net/qq_45935025/article/details/122692968)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值