res.encoding = ‘gbk’
html = etree.HTML(res.text)
num_pages = html.xpath(‘//span[@class=“pageinfo”]/strong’)[0].text
page_urls = [‘http://www.mengsang.com/duorou/list_1_%s.html’ % i for i in range(1, int(num_pages)+1)]
return page_urls
现在,我们来爬网站每页的多肉数据。首先,还是利用xpath提取所有多肉的基本数据(即每种多肉的图片和详情页链接):
# 提取该页中多肉的图片+详情页链接
res = requests.get(page_url, headers=self.__randomHeaders())
res.encoding = ‘gbk’
html = etree.HTML(res.text)
html = html.xpath(‘//span[@class=“tImgUlImg”]’)
succulent_list = []
for item in html:
succulent_list.append([item.xpath(‘a/@title’)[0].replace(‘/’, ‘-’).replace(‘\\’, ‘-’), item.xpath(‘a/img/@src’)[0], item.xpath(‘a/@href’)[0]])
每种多肉的详情页大概长这样:
显然,我们是需要详情页数据来进一步判断多肉好不好养以及适不适合自己养的。于是,还是利用xpath提取我们想要的数据就行了(这里我们只提取上图红框中的数据):
# 爬取详情页数据
for item in succulent_list:
data = [item[0], item[1]]
headers = self.__randomHeaders()
headers.update({‘Referer’: page_url})
res = requests.get(item[-1], headers=headers)
res.encoding = ‘gbk’
html_root = etree.HTML(res.text).xpath(‘//div[@class=“cbRight”]/div[@class=“mainBox”]’)[0]
html = html_root.xpath(‘div[2]/table[@class=“tTable”]/tr’)[1:]
intro = ['繁殖: ', '易活度: ', '季节: ', '温度: ', '日照: ', '浇水量: ',
'日照说明: ', '浇水说明: ', '大类/属: ', '中文种名: ', '英文学名: ']
for idx, tr in enumerate(html):
if idx == 0:
intro[0] = intro[0] + tr.xpath(‘./td[2]/text()’)[0] if tr.xpath(‘./td[2]/text()’) else intro[0] + ‘未知’
intro[1] = intro[1] + int(tr.xpath(‘./td[4]/img/@src’)[0].split(‘/’)[-1].split(‘.’)[0][1:]) * ‘⭐’
elif idx == 1:
intro[2] = intro[2] + tr.xpath(‘./td[2]/text()’)[0] if tr.xpath(‘./td[2]/text()’) else intro[2] + ‘未知’
intro[3] = intro[3] + tr.xpath(‘./td[4]/text()’)[0].strip().replace(’ ‘, ‘’) if tr.xpath(’./td[4]/text()') else intro[3]
elif idx == 2:
intro[4] = intro[4] + int(tr.xpath(‘./td[2]/img/@src’)[0].split(‘/’)[-1].split(‘.’)[0]) * ‘☀’
intro[5] = intro[5] + int(tr.xpath(‘./td[4]/img/@src’)[0].split(‘/’)[-1].split(‘.’)[0][1:]) * ‘💧’
html = html_root.xpath(‘div[2]/div’)[0].xpath(‘//div[@class=“pt5”]’)
for idx, item in enumerate(html):
if idx == 0:
intro[6] = intro[6] + item.xpath(‘./span/text()’)[0]
elif idx == 1:
intro[7] = intro[7] + item.xpath(‘./span/text()’)[0]
elif idx == 3:
intro[8] = intro[8] + item.xpath(‘text()’)[0] if item.xpath(‘text()’) else intro[8] + ‘未知’
elif idx == 4:
intro[9] = intro[9] + item.xpath(‘text()’)[0] if item.xpath(‘text()’) else intro[9] + ‘未知’
elif idx == 5:
intro[10] = intro[10] + item.xpath(‘text()’)[0] if item.xpath(‘text()’) else intro[10] + ‘未知’
data.append(intro)
self.__saveItem(data)
爬虫到此基本上是写完了,封装成类给我们后面的主界面调用就行了。现在我们开始写主的查询界面,我们的主界面大概长这样:
坦白一波,代码copy的以前公众号分享的鲁迅名言查询系统,然后稍微改了下,所以没多少工作量。主要实现主界面的三个功能就行。
第一,根据用户输入的多肉名称来查询多肉的相关数据并显示:
‘’‘数据查询’‘’
def find(self):
datadir = os.path.join(‘resources/succulents/’, self.line_edit.text())
if os.path.exists(datadir):
self.showLabelImage(os.path.join(datadir, ‘show.jpg’))
intro = pickle.load(open(os.path.join(datadir, ‘info.pkl’), ‘rb’))[-1]
self.showIntroduction(intro)
第二,随机显示一个现在数据库里有的多肉数据:
‘’‘随机读取’‘’
def randomRead(self):
datadir = random.choice(os.listdir(‘resources/succulents/’))
self.line_edit.setText(datadir)
datadir = os.path.join(‘resources/succulents/’, self.line_edit.text())
if os.path.exists(datadir):
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
最后
不知道你们用的什么环境,我一般都是用的Python3.6环境和pycharm解释器,没有软件,或者没有资料,没人解答问题,都可以免费领取(包括今天的代码),过几天我还会做个视频教程出来,有需要也可以领取~
给大家准备的学习资料包括但不限于:
Python 环境、pycharm编辑器/永久激活/翻译插件
python 零基础视频教程
Python 界面开发实战教程
Python 爬虫实战教程
Python 数据分析实战教程
python 游戏开发实战教程
Python 电子书100本
Python 学习路线规划
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
VpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZlaTM0Nzc5NTc5MA==,size_16,color_FFFFFF,t_70)
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[外链图片转存中…(img-fPWhQjIM-1712786908715)]