python简易爬虫教程--(一)批量获取搜狐新闻_python爬虫学习教程,批量抓取美女图片!...

原标题:python爬虫学习教程,批量抓取美女图片!

python的抓取功能其实是非常强大的,当然不能浪费,呵呵。下面就与大家分享一个python写的美女图自动抓取程序吧!

学习python、python爬虫过程中有不懂的可以加入我的python零基础系统学习交流秋秋qun:前面是934,中间109,后面是170,与你分享Python企业当下人才需求及怎么从零基础学习Python,和学习什么内容。相关学习视频资料、开发工具都有分享!

其中用到urllib2模块和正则表达式模块。下面直接上代码:

用python批量抓取美女图片

#!/usr/bin/env python

#-*- coding: utf-8 -*-

#通过urllib(2)模块下载网络内容

import urllib,urllib2,gevent

#引入正则表达式模块,时间模块

import re,time

from gevent import monkey

monkey.patch_all()

def geturllist(url):

url_list=[]

print url

s = urllib2.urlopen(url)

text = s.read()

#正则匹配,匹配其中的图片

html = re.search(r'

', text, re.S)

urls = re.finditer(r'

',html.group(),re.I)

for i in urls:

url=i.group(1).strip()+str("jpg")

url_list.append(url)

return url_list

def download(down_url):

name=str(time.time())[:-3]+"_"+re.sub('.+?/','',down_url)

print name

urllib.urlretrieve(down_url, "D:\\TEMP\\"+name)

def getpageurl():

page_list = []

#进行列表页循环

for page in range(1,700):

url="http://jandan.net/ooxx/page-"+str(page)+"#comments"

#把生成的url加入到page_list中

page_list.append(url)

print page_list

return page_list

if __name__ == '__main__':

jobs = []

pageurl = getpageurl()[::-1]

#进行图片下载

for i in pageurl:

for (downurl) in geturllist(i):

jobs.append(gevent.spawn(download, downurl))

gevent.joinall(jobs)

程序不长才45行,不是太难,大家可以研究下,这里我只是抛砖引玉,大家可以根据原理开发出其他的抓取程序,呵呵,自己想去吧。。

责任编辑:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个简单的 Python 爬虫教程,可以批量爬取指定网站的图片: 首先,我们需要安装 requests 和 BeautifulSoup 这两个库。可以通过以下命令进行安装: ``` pip install requests pip install beautifulsoup4 ``` 接下来,我们需要编写代码。以下是一个示例代码,可以爬取指定网站的图片并保存到本地: ```python import requests from bs4 import BeautifulSoup import os # 爬取图片的网站 url = "https://www.example.com/" # 请求头,模拟浏览器访问 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} # 发送请求,获取网页内容 response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, "html.parser") # 创建保存图片的文件夹 if not os.path.exists("images"): os.makedirs("images") # 遍历所有的图片标签,获取图片链接并保存到本地 for img in soup.find_all("img"): img_url = img.get("src") if img_url.startswith("http"): response = requests.get(img_url) with open("images/" + os.path.basename(img_url), "wb") as file: file.write(response.content) print("已保存图片:", img_url) ``` 在上述代码中,我们首先定义了要爬取的网站的 URL。然后,我们使用 requests 库发送一个 GET 请求,获取网页的 HTML 内容。接着,我们使用 BeautifulSoup 库对 HTML 进行解析,获取所有的图片标签。最后,我们使用 requests 库再次发送 GET 请求,获取图片的二进制数据,并保存到本地的 images 文件夹中。 注意,这里我们使用了一个 if 判断来过滤掉非 HTTP 开头的图片链接,以避免出现下载错误的情况。 为了更好的用户体验,代码中还加入了一些注释,方便大家理解。 希望这个简单的 Python 爬虫教程能对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值