python爬虫爬取淘宝图片_淘宝上的图片是怎么被爬取的

该楼层疑似违规已被系统折叠 隐藏此楼查看此楼

今天河马http给大家说一下,淘宝上的图片是怎么被爬取的。我们先打开淘宝,输入我们要抓取的图片的关键词,研究分析一下页面,查找所需信息所在的位置,然后开始爬取。

代码如下:

import os

import re

import urllib.request

import requests

def getHtml(url,headers):

# 河马代理设置

proxy = urllib.request.ProxyHandler({'http': '115.213.177.144:4223'})

opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)

urllib.request.install_opener(opener)

opener.addheaders = [headers] # 列表

data = urllib.request.urlopen(url).read().decode('utf-8', 'ignore')

pat='"pic_url":"(.*?)"'

imgUrls=re.findall(pat,data)

return data,imgUrls

if __name__=='__main__':

keyword='关键词信息'

#quote编码

keyword=urllib.request.quote(keyword)

pageString='0'

url='目标网址'+pageString

headers = ('User-Agent','agent信息')

data = getHtml(url,headers)[0]

print(data)

pat='"totalPage":(.*?),'

totalPage=int(re.findall(pat,data)[1])

print(totalPage)

path = os.path.join(os.getcwd(), 'img')

os.makedirs(path)

for page in range(totalPage):

pathpage = os.path.join(path, '第'+str(page+1)+'页')

os.makedirs(pathpage)

pageString=str(page*44)

url = '目标网址' + pageString

imgUrls=getHtml(url, headers)[1]

for i in range(1, len(imgUrls)):

try:

url='http:'+imgUrls[i]

print(url)

fileurl=pathpage+'/'+str(i)+'.jpg'

r=requests.get(url)

with open(fileurl,"wb") as f:

f.write(r.content)

except :

print('**** off')

通过上述代码,我们就可以获取到淘宝上的相关图片信息了。河马HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用Python爬虫百度图片,你需要进行以下几个步骤: 1. 获网页源代码:通过发送HTTP请求获百度图片搜索结果页面的源代码。可以使用Python中的requests库发送GET请求,并使用该库的content属性获网页的源代码。 2. 提图片URL:在网页源代码中,使用正则表达式匹配出所有图片的URL。可以使用re库中的findall方法来匹配出所有符合规则的图片URL。 3. 下载保存图片:使用Python的requests库发送HTTP请求,并将获到的图片数据保存到本地文件中。可以使用requests库的get方法来发送GET请求,并使用content属性获图片的二进制数据。然后,使用open函数以二进制写入模式打开文件,并使用write方法将图片数据写入文件中。 需要注意的是,为了保存图片,你需要在Python程序所在的目录中创建一个名为"picture"的文件夹。 下面是一个简单的示例代码,演示了如何使用Python爬虫百度图片: ```python import re import requests def get_img_url(data): '''匹配出图片的URL''' url_re = re.compile('"thumbURL":"(.*?)","replaceUrl"') url_list = url_re.findall(data) return url_list def get_img(url): '''下载并保存图片''' img = requests.get(url).content with open('picture/{}.jpg'.format(name), 'wb') as save_img: save_img.write(img) # 发送HTTP请求,获网页源代码 response = requests.get('https://www.baidu.com/s?wd=python') data = response.text # 提图片URL url_list = get_img_url(data) # 下载保存图片 for url in url_list: get_img(url) ``` 请注意,为了运行这个示例代码,你需要先安装requests库,可以使用pip install requests命令进行安装。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span>

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值