【Python】爬取妹子图整站 简易版

first

找到爬虫入口->获取目标链接->下载网页-> 解析网页 -> 获取价值信息 ->存库(文件保存)操作


爬什么呢?对就这个吧 别忘记f12 方便于开发人员欧


工具我就用py3好了,据说2020年官方将停止py2的更新。

second

#创建一个下载美女图片的方法

import urllib.request

import gevent
import gevent.monkey

gevent.monkey.patch_all()  #把所有的耗时转化成gevent的函数

import re


def read_img():

	with open("./cc.html") as f:
		content = f.read()
	#正则
	reg = r'data-original="(https://.+\.jpg)"' # 定义一个正则来匹配页面当中的图片
	imgre = re.compile(reg)  # 为了让正则更快,给它来个编译

	imglist = re.findall(imgre, content)

	return imglist   #返回所有的图片 地址

def write_img(file_name,image_url):
	#读取所有图片
	req = urllib.request.urlopen(image_url)
	content = req.read()

	#写到文件中
	with open("./images/%s.jpg"%file_name,'wb') as f:
		f.write(content)

def main():
	# down_img("./美女1.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/03/18/4356210_20180318215315_big.jpg")
	# down_img("./美女2.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/01/30/2716613_20180130095710_big.jpg")
	#

	images = read_img()

	spawns = list()

	num = 0
	for image_url in images:
		spawns.append(gevent.spawn(write_img,num,image_url))
		num += 1


	#使用协程进行数据抓取
	gevent.joinall(spawns)

if __name__ == '__main__':
    main()

last

萌新在此膜拜大佬,

感谢捧场。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值