Requests 爬取图片 | 搜索引擎接口 | ip地址

用requests库爬取图片

Requests 库 爬取图片

  1 import requests
  2 import os
  3 url = 'https://i0.hdslb.com/bfs/album/eddabcad0e7a8a6dc433ddd406d8b993327250    c2.jpg@518w_1e_1c.jpg'
  4 root = '/home/rcx/图片/'
  5 path = root + url.split('/')[-1]
  6 
  7 try:
  8     if not os.path.exists(root):
  9         os.mkdir(root)
 10     if not os.path.exists(path):
 11         r = requests.get(url)
 12         with open(path,'wb') as f:
 13             f.write(r.content)
 14             f.close()
 15             print('图片爬取成功')
 16     else:
 17         print('文件已存在')
 18 except:
 19     print('图片爬取失败')                           

百度搜索 关键字接口

import requests
keyword = 'Python'
try:
	kv = {'wd':keyword}
	r = requests.get('http://www.baidu.com/s',params=kv)
	print(r.request.url)
	r.raise_for_status()
	print(len(r.text))
except:
	print('爬取失败')

ip地址

www.ip138.com
  1 import requests
  2 
  3 headers = {'user-agent':'Mozilla/5.0'}
  4 ipaddress = '111.37.244.56'
  5 root = 'http://m.ip138.com/ip.asp?ip='
  6 url = root + ipaddress
  7 
  8 try:
  9     r = requests.get(url,headers=headers)
 10     r.raise_for_status()
 11     r.encoding = r.apparent_encoding
 12     print(r.text[-500:])
 13 except:
 14     print('ip爬取失败')
使用requests库可以方便地爬取图片。通过requests.get(url)方法可以获取到图片的二进制数据,然后可以使用with open()语句将图片保存到本地。以下是一个使用requests爬取图片的示例代码: ```python import requests def download_image(url, save_path): response = requests.get(url) with open(save_path, 'wb') as f: f.write(response.content) download_image('https://example.com/image.jpg', 'image.jpg') ``` 在这个示例中,我们定义了一个`download_image`函数,该函数接收图片的URL和保存路径作为参数。使用requests.get方法获取图片的二进制数据,然后使用with open语句打开文件并将二进制数据写入文件中,从而实现图片的保存。 请注意,以上示例仅展示了如何使用requests爬取图片。在实际应用中,你可能需要结合其他技术,如解析网页获取图片URL等来完善你的爬虫。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [16-python爬虫之Requests库爬取海量图片](https://blog.csdn.net/bigzql/article/details/109007633)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [python爬虫之使用requests进行图片爬取](https://blog.csdn.net/qq_44159028/article/details/120560451)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值