【教程】记录:python基础爬虫代码(下载妹子福利图片)

废话不多说,直接代码复制进去自己观察。


前面import的,就是要安装

re

os

beautifulsoup


注意在本代码同级下创建一个mm文件夹准备放福利


至于网站,是大神给我的网站,我可是纯洁的好孩子。

感觉身体被掏空

import requests,re,os
from bs4 import BeautifulSoup

base_url='http://www.mmjpg.com/home/{page}'
def get_url(page):
	PicSet=set()
	for i in range(1,page+1,1):
		print("正在收集第"+ str(i) +"页数据.")
		url=base_url.format(page=i)
		resp=requests.get(url)
		resp.encoding='utf-8'
		href_pattern=re.compile(r'href="http://www.mmjpg.com/mm/(.*?)"')
		name_pattern=re.compile(r'alt="(.*?)"')
		bsObj=BeautifulSoup(resp.text,'lxml')
		PicUrlList=bsObj.find_all('li',{})
		for Pic in PicUrlList:
			String=str(Pic)
			page_url=re.findall(href_pattern,String)[0]
			name=re.findall(name_pattern,String)[0]
			print("正在收集"+ page_url +"数据")
			info=(page_url,name)
			PicSet.add(info)
	return PicSet
	
def download(picname,picurl):

	b_url='http://www.mmjpg.com/mm/'
	url=b_url+picurl 
	resp=requests.get(url)
	resp.encoding='utf-8'
	strFind ='class="content"(.*)/></a></div>'
	StrUrl=re.findall(strFind,resp.text)[0]
	url=re.findall('src="(.*)1.jpg"',StrUrl)[0]

	strFind ='class="page"(.*)</a><em '
	StrNum=re.findall(strFind,resp.text)[0]
	num=StrNum[-2:]
	num=int(num)
	
	for n in range(1,num+1,1):
		img_src=url+str(n)+".jpg"
		img = requests.get(img_src).content
		DirPath=os.getcwd()+"\\mm\\"
		path=DirPath+picname+str(n)+'.jpg'
		print('正在下载: '+str(n)+'...')
		with open(path,'wb') as f:
			f.write(img)
			
page=5
PicPool=get_url(page)
print("收集数据完毕,准备下载-----------")
sum=1
try:
	for Pic in PicPool:
		picurl=Pic[0]
		picname=Pic[1]
		print("正在操作第"+ str(sum) +"板块数据=========")
		download(picname,picurl)
		sum=sum+1
finally:
	print('下载停止')
	





  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: intitle:python淘宝爬虫 是一个关键词,用于在搜索引擎中搜索与“python淘宝爬虫”相关的网页标题。爬虫是指一种自动化程序,通过网络抓取互联网上的信息。python是一种广泛应用于爬虫开发的编程语言。 淘宝是中国最大的在线购物平台,许多人希望通过爬虫来收集淘宝上的商品信息,用于市场研究、价格比较等目的。因此,使用intitle:python淘宝爬虫进行搜索,可能会找到一些与淘宝爬虫相关的教程代码示例、工具等资源。 在进行淘宝爬虫时,一般需要使用Python编程语言,并结合一些爬虫框架或库,如BeautifulSoup、Scrapy等。可以利用这些工具来解析网页内容、提取所需的数据,并将其存储或进行进一步的处理。 当然,在进行淘宝爬虫时,需要遵守相应的法律法规和网站的规定,不得以非法或滥用的方式使用爬虫,要确保爬虫行为的合法性和道德性,避免给他人和自己带来不必要的麻烦。 总之,intitle:python淘宝爬虫是一个用于搜索与淘宝爬虫相关资源的关键词,如果你有这方面的需求,可以通过搜索引擎获取相关的资料和工具,并在遵守法律和道德的前提下进行相关的开发和研究。 ### 回答2: 淘宝爬虫是一种用于从淘宝网站上获取数据的程序。当我们在搜索引擎中使用“intitle:python淘宝爬虫”这样的关键词时,意味着我们希望找到与Python编写的淘宝爬虫相关的内容。 Python是一种功能强大的编程语言,广泛应用于Web开发、数据分析和爬虫等领域。在淘宝爬虫中使用Python可以通过编写代码来模拟用户请求,访问淘宝网页并提取所需的数据。爬虫程序可以自动化地搜索和获取淘宝上的商品信息、价格、评价等数据,进而进行数据分析、比较和其他操作。 编写一个Python淘宝爬虫需要使用一些库和工具,如requests、beautifulsoup和selenium等。requests库用于发送HTTP请求,并获取网页内容;beautifulsoup则用于解析HTML页面,从中提取出所需的数据;selenium可以模拟用户的操作,自动化地进行页面的点击和切换。 当使用关键词“intitle:python淘宝爬虫”进行搜索时,我们可能会找到与淘宝爬虫相关的教程、示例代码或者一些开源的爬虫项目。这些资源可以帮助我们学习如何使用Python编写淘宝爬虫,并根据自己的需求进行修改和扩展。 需要注意的是,爬取淘宝网站的数据涉及到一些法律和道德的问题,如侵犯隐私、侵权等。在开发和使用淘宝爬虫时,我们应该遵守相关的法律法规和网站的使用条款,尊重他人的权益和个人隐私。 ### 回答3: intitle:python淘宝爬虫是指在搜索引擎中,使用关键词"intitle"来筛选结果,从而找到与"python淘宝爬虫"相关的网页标题中包含这些关键词的页面。 淘宝爬虫是一种使用Python编程语言开发的网络爬虫程序,用于自动化地从淘宝网站上获取商品信息。淘宝是中国最大的在线购物平台,有着丰富的商品信息和交易数据,通过爬取这些数据可以实现一系列的商业应用。 使用Python编写淘宝爬虫主要涉及以下几个方面的技术:网络请求、页面解析和数据存储。首先,需要使用Python的网络请求库发送HTTP请求,与淘宝网站建立连接并获取网页内容。接下来,对获取的页面进行解析,使用Python的解析库来提取感兴趣的数据,比如商品的名称、价格、销量等信息。最后,将提取的数据进行存储,可以选择使用数据库或保存为文件的形式。 爬取淘宝数据需要注意一些法律和伦理规范,如尊重网站的robots.txt文件中的规定,不进行恶意爬取和大规模爬取。此外,还应该设置适当的爬取速度和频率,以免给网站带来过大的负担。 总之,intitle:python淘宝爬虫是为了筛选与Python编写的淘宝爬虫程序相关的网页标题,而淘宝爬虫是一种利用Python编程语言实现的爬虫程序,用于自动化地获取淘宝网站上的商品信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值