基于python3.x的爬取马蜂窝旅游的游记照片

16 篇文章 145 订阅 ¥9.90 ¥99.00
本文介绍了如何使用Python3.x进行马蜂窝旅游达人的游记照片爬取。通过urllib.request和lxml库解析HTML,利用XPath选择数据,抓取data-src属性中的图片链接。同时,文章提到了文件夹创建、图片保存及文件命名的处理,以及在实际操作中需要注意的路径和命名问题。
摘要由CSDN通过智能技术生成

前几天在csdn首页看到一个大佬爬取看准网数据并分析的博客,自己搞了一下,各种问题,已超过目前的认知领域,so,先从基本的做起吧,一点点添加新内容。

本次任务为爬取马蜂窝旅行达人的游记照片,之前搞过几次马蜂窝,中间停顿过长,再次回归吧。

上代码:

import re
import urllib.request
import os
from lxml import etree

def savePhoto(soup,path):
    print(u"开始保存图片")
    img=soup.xpath('//img/@data-src')
    total_img=0
    for myimg in img:
        total_img += 1
        print(myimg)
        urllib.request.urlretrieve(myimg,path+'%s.jpg'%total_img)
        print(u"已经保存第",total_img,u"张照片")
    print(u"总共保存第",total_img,u"张照片")

def getTitle(soup):
    result=soup.xpath('//div/h1/text()')[0]
    result=re.sub(
  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 9
    评论
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

beyond_LH

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值