爬图片 BS4

#coding:utf-8
import requests
from bs4 import BeautifulSoup
import re
DownPath = "/jiaoben/python/meizitu/pic/"
import urllib
head = { 'User-Agent' : 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6' }
TimeOut = 5
PhotoName = 0
c = '.jpeg'
PWD = "/jiaoben/python/meizitu/pic/"
for x in range ( 1 , 4 ):
   site = "http://www.meizitu.com/a/qingchun_3_%d.html" % x
   Page = requests.session().get(site,headers = head,timeout = TimeOut)
   Coding =  (Page.encoding)
   Content = Page.content #.decode(Coding).encode('utf-8')
   ContentSoup = BeautifulSoup(Content)
   jpg = ContentSoup.find_all( 'img' ,{ 'class' : 'scrollLoading' })
   for photo in jpg:
     PhotoAdd = photo.get( 'data-original' )
     PhotoName + = 1
     Name =  ( str (PhotoName) + c)
     r = requests.get(PhotoAdd,stream = True )
     with open (PWD + Name, 'wb' ) as fd:
         for chunk in r.iter_content():
                 fd.write(chunk)
print ( "You have down %d photos" % PhotoName)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您可以使用BeautifulSoup库进行网络虫,并结合其他库来进行图片取和下载。以下是一个使用BeautifulSoup和requests库图片的示例代码: ```python import requests from bs4 import BeautifulSoup # 请求页面 url = 'http://example.com' # 替换成您要取的网页URL response = requests.get(url) # 解析页面 soup = BeautifulSoup(response.text, 'html.parser') # 找到所有的图片标签 img_tags = soup.find_all('img') # 遍历图片标签并下载图片 for img in img_tags: img_url = img['src'] # 获取图片链接 img_name = img_url.split('/')[-1] # 获取图片名称 img_data = requests.get(img_url).content # 获取图片内容 with open(img_name, 'wb') as f: f.write(img_data) print(f"图片 {img_name} 下载成功") ``` 请注意,在运行代码之前,您需要安装所需的库:BeautifulSoup和requests。您可以使用以下命令进行安装: ``` pip install beautifulsoup4 requests ``` 在代码中,首先使用requests库发送HTTP请求获取页面的HTML内容。然后,使用BeautifulSoup解析HTML内容。接下来,使用find_all方法找到所有的图片标签。然后,遍历这些图片标签,分别获取图片链接、图片名称和图片内容,并将图片保存到本地文件中。 请替换示例代码中的URL为您要取的网页URL,并确保您有权限取该网页上的图片。另外,注意检查图片标签的属性名称(例如src),以确保代码能正确地获取图片链接。 这只是一个简单的示例,实际应用中可能需要考虑更多的异常处理和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值