具体的要求如下:
1.在某宝搜索“小鱼零食”,想知道前10页搜索结果的所有商品的销量和金额,按照他划定好的价格区间来统计数量,给我划分了如下的一张价格区间表:
2.这10页搜索结果中,商家都是分布在全国的哪些位置?
3.这10页的商品下面,用户评论最多的是什么?
4.从这些搜索结果中,找出销量最多的10家店铺名字和店铺链接。
从这些要求来看,其实这些需求也不难实现,我们先来看一下项目的效果。
获取到数据之后做了下分析,最终做成了柱状图,鼠标移动可以看出具体的商品数量。
在10~30元之间的商品最多,越往后越少,看来大多数的产品都是定位为低端市场。
然后我们再来看一下全国商家的分布情况:
可以看出,商家分布大多都是在沿海和长江中下游附近,其中以沿海地区最为密集。
然后再来看一下用户都在商品下面评论了一些什么:
字最大的就表示出现次数最多,口感味道、包装品质、商品分量和保质期是用户评价最多的几个方面,那么在产品包装的时候可以从这几个方面去做针对性阐述,解决大多数人比较关心的问题。
最后就是销量前10的店铺和链接了。
在拿到数据并做了分析之后,我也在想,如果这个东西是我来做的话,我能不能看出来什么东西?或许可以从价格上找到切入点,或许可以从产品地理位置打个差异化,又或许可以以用户为中心,由外而内地做营销。
越往深想,越觉得有门道,算了,对于小鱼零食这一块我是外行,不多想了。
由于源码分了几个源文件,还是比较长的,所以这里就不跟大家一一讲解了,懂爬虫的人看几遍就看懂了,不懂爬虫的说再多也是云里雾里,等以后学会了爬虫再来看就懂了。
import csv
import os
import time
import wordcloud
from selenium import webdriver
from selenium.webdriver.common.by import By
def tongji():
prices = []
with open(‘前十页销量和金额.csv’, ‘r’, encoding=‘utf-8’, newline=‘’) as f:
fieldnames = [‘价格’, ‘销量’, ‘店铺位置’]
reader = csv.DictReader(f, fieldnames=fieldnames)
for index, i in enumerate(reader):
if index != 0:
price = float(i[‘价格’].replace(‘¥’, ‘’))
prices.append(price)
DATAS = {‘<10’: 0, ‘10~30’: 0, ‘30~50’: 0,
‘50~70’: 0, ‘70~90’: 0, ‘90~110’: 0,
‘110~130’: 0, ‘130~150’: 0, ‘150~170’: 0, ‘170~200’: 0, }
for price in prices:
if price < 10:
DATAS[‘<10’] += 1
elif 10 <= price < 30:
DATAS[‘10~30’] += 1
elif 30 <= price < 50:
DATAS[‘30~50’] += 1
elif 50 <= price < 70:
DATAS[‘50~70’] += 1
elif 70 <= price < 90:
DATAS[‘70~90’] += 1
elif 90 <= price < 110:
DATAS[‘90~110’] += 1
elif 110 <= price < 130:
DATAS[‘110~130’] += 1
elif 130 <= price < 150:
DATAS[‘130~150’] += 1
elif 150 <= price < 170:
DATAS[‘150~170’] += 1
elif 170 <= price < 200:
DATAS[‘170~200’] += 1
for k, v in DATAS.items():
print(k, ‘:’, v)
def get_the_top_10(url):
top_ten = []
获取代理
ip = zhima1()[2][random.randint(0, 399)]
运行quicker动作(可以不用管)
os.system(‘“C:\Program Files\Quicker\QuickerStarter.exe” runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8’)
options = webdriver.ChromeOptions()
远程调试Chrome
options.add_experimental_option(‘debuggerAddress’, ‘127.0.0.1:9222’)
options.add_argument(f’–proxy-server={ip}')
driver = webdriver.Chrome(options=options)
隐式等待
driver.implicitly_wait(3)
打开网页
driver.get(url)
点击部分文字包含’销量’的网页元素
driver.find_element(By.PARTIAL_LINK_TEXT, ‘销量’).click()
time.sleep(1)
页面滑动到最下方
driver.execute_script(‘window.scrollTo(0,document.body.scrollHeight)’)
time.sleep(1)
查找元素
element = driver.find_element(By.ID, ‘mainsrp-itemlist’).find_element(By.XPATH, ‘.//div[@class=“items”]’)
items = element.find_elements(By.XPATH, ‘.//div[@data-category=“auctions”]’)
for index, item in enumerate(items):
if index == 10:
break
查找元素
price = item.find_element(By.XPATH, ‘./div[2]/div[1]/div[contains(@class,“price”)]’).text
paid_num_data = item.find_element(By.XPATH, ‘./div[2]/div[1]/div[@class=“deal-cnt”]’).text
store_location = item.find_element(By.XPATH, ‘./div[2]/div[3]/div[@class=“location”]’).text
store_href = item.find_element(By.XPATH, ‘./div[2]/div[@class=“row row-2 title”]/a’).get_attribute(
‘href’).strip()
将数据添加到字典
top_ten.append(
{‘价格’: price,
‘销量’: paid_num_data,
‘店铺位置’: store_location,
‘店铺链接’: store_href
})
for i in top_ten:
print(i)
def get_top_10_comments(url):
with open(‘排名前十评价.txt’, ‘w+’, encoding=‘utf-8’) as f:
pass
ip = ipidea()[1]
os.system(‘“C:\Program Files\Quicker\QuickerStarter.exe” runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8’)
options = webdriver.ChromeOptions()
options.add_experimental_option(‘debuggerAddress’, ‘127.0.0.1:9222’)
options.add_argument(f’–proxy-server={ip}')
driver = webdriver.Chrome(options=options)
driver.implicitly_wait(3)
driver.get(url)
driver.find_element(By.PARTIAL_LINK_TEXT, ‘销量’).click()
一、Python所有方向的学习路线
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、Python必备开发工具
工具都帮大家整理好了,安装就可直接上手!
三、最新Python学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、Python视频合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
六、面试宝典
简历模板![在这里插入图片描述](https://img-blog.csdnimg.cn/646863996ac44da8af500c049bb72fbd.png#pic_center)
小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频
如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**
深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频
如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
[外链图片转存中…(img-eLhYmLEs-1710981736228)]