Python爬虫实战之爬某宝商品并做数据分析,现在赚钱没点技术还真不行!

在这里插入图片描述

一、 项目要求:


具体的要求如下:

1.在某宝搜索“小鱼零食”,想知道前10页搜索结果的所有商品的销量和金额,按照他划定好的价格区间来统计数量,给我划分了如下的一张价格区间表:

在这里插入图片描述

2.这10页搜索结果中,商家都是分布在全国的哪些位置?

3.这10页的商品下面,用户评论最多的是什么?

4.从这些搜索结果中,找出销量最多的10家店铺名字和店铺链接。

从这些要求来看,其实这些需求也不难实现,我们先来看一下项目的效果。


二、效果预览


获取到数据之后做了下分析,最终做成了柱状图,鼠标移动可以看出具体的商品数量。

在这里插入图片描述

在10~30元之间的商品最多,越往后越少,看来大多数的产品都是定位为低端市场。

然后我们再来看一下全国商家的分布情况:

在这里插入图片描述

可以看出,商家分布大多都是在沿海和长江中下游附近,其中以沿海地区最为密集。

然后再来看一下用户都在商品下面评论了一些什么:

在这里插入图片描述

字最大的就表示出现次数最多,口感味道、包装品质、商品分量和保质期是用户评价最多的几个方面,那么在产品包装的时候可以从这几个方面去做针对性阐述,解决大多数人比较关心的问题。

最后就是销量前10的店铺和链接了。

在这里插入图片描述

在拿到数据并做了分析之后,我也在想,如果这个东西是我来做的话,我能不能看出来什么东西?或许可以从价格上找到切入点,或许可以从产品地理位置打个差异化,又或许可以以用户为中心,由外而内地做营销。

越往深想,越觉得有门道,算了,对于小鱼零食这一块我是外行,不多想了。

粉丝福利,点击可查看


三、爬虫源码


由于源码分了几个源文件,还是比较长的,所以这里就不跟大家一一讲解了,懂爬虫的人看几遍就看懂了,不懂爬虫的说再多也是云里雾里,等以后学会了爬虫再来看就懂了。

import csv

import os

import time

import wordcloud

from selenium import webdriver

from selenium.webdriver.common.by import By

def tongji():

prices = []

with open(‘前十页销量和金额.csv’, ‘r’, encoding=‘utf-8’, newline=‘’) as f:

fieldnames = [‘价格’, ‘销量’, ‘店铺位置’]

reader = csv.DictReader(f, fieldnames=fieldnames)

for index, i in enumerate(reader):

if index != 0:

price = float(i[‘价格’].replace(‘¥’, ‘’))

prices.append(price)

DATAS = {‘<10’: 0, ‘10~30’: 0, ‘30~50’: 0,

‘50~70’: 0, ‘70~90’: 0, ‘90~110’: 0,

‘110~130’: 0, ‘130~150’: 0, ‘150~170’: 0, ‘170~200’: 0, }

for price in prices:

if price < 10:

DATAS[‘<10’] += 1

elif 10 <= price < 30:

DATAS[‘10~30’] += 1

elif 30 <= price < 50:

DATAS[‘30~50’] += 1

elif 50 <= price < 70:

DATAS[‘50~70’] += 1

elif 70 <= price < 90:

DATAS[‘70~90’] += 1

elif 90 <= price < 110:

DATAS[‘90~110’] += 1

elif 110 <= price < 130:

DATAS[‘110~130’] += 1

elif 130 <= price < 150:

DATAS[‘130~150’] += 1

elif 150 <= price < 170:

DATAS[‘150~170’] += 1

elif 170 <= price < 200:

DATAS[‘170~200’] += 1

for k, v in DATAS.items():

print(k, ‘:’, v)

def get_the_top_10(url):

top_ten = []

获取代理

ip = zhima1()[2][random.randint(0, 399)]

运行quicker动作(可以不用管)

os.system(‘“C:\Program Files\Quicker\QuickerStarter.exe” runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8’)

options = webdriver.ChromeOptions()

远程调试Chrome

options.add_experimental_option(‘debuggerAddress’, ‘127.0.0.1:9222’)

options.add_argument(f’–proxy-server={ip}')

driver = webdriver.Chrome(options=options)

隐式等待

driver.implicitly_wait(3)

打开网页

driver.get(url)

点击部分文字包含’销量’的网页元素

driver.find_element(By.PARTIAL_LINK_TEXT, ‘销量’).click()

time.sleep(1)

页面滑动到最下方

driver.execute_script(‘window.scrollTo(0,document.body.scrollHeight)’)

time.sleep(1)

查找元素

element = driver.find_element(By.ID, ‘mainsrp-itemlist’).find_element(By.XPATH, ‘.//div[@class=“items”]’)

items = element.find_elements(By.XPATH, ‘.//div[@data-category=“auctions”]’)

for index, item in enumerate(items):

if index == 10:

break

查找元素

price = item.find_element(By.XPATH, ‘./div[2]/div[1]/div[contains(@class,“price”)]’).text

paid_num_data = item.find_element(By.XPATH, ‘./div[2]/div[1]/div[@class=“deal-cnt”]’).text

store_location = item.find_element(By.XPATH, ‘./div[2]/div[3]/div[@class=“location”]’).text

store_href = item.find_element(By.XPATH, ‘./div[2]/div[@class=“row row-2 title”]/a’).get_attribute(

‘href’).strip()

将数据添加到字典

top_ten.append(

{‘价格’: price,

‘销量’: paid_num_data,

‘店铺位置’: store_location,

‘店铺链接’: store_href

})

for i in top_ten:

print(i)

def get_top_10_comments(url):

with open(‘排名前十评价.txt’, ‘w+’, encoding=‘utf-8’) as f:

pass

ip = ipidea()[1]

os.system(‘“C:\Program Files\Quicker\QuickerStarter.exe” runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8’)

options = webdriver.ChromeOptions()

options.add_experimental_option(‘debuggerAddress’, ‘127.0.0.1:9222’)

options.add_argument(f’–proxy-server={ip}')

driver = webdriver.Chrome(options=options)

driver.implicitly_wait(3)

driver.get(url)

driver.find_element(By.PARTIAL_LINK_TEXT, ‘销量’).click()

一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

img
img

二、Python必备开发工具

工具都帮大家整理好了,安装就可直接上手!img

三、最新Python学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

img

四、Python视频合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

img

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。img

六、面试宝典

在这里插入图片描述

在这里插入图片描述

简历模板在这里插入图片描述

小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频

如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
img

经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**

深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频

如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
[外链图片转存中…(img-eLhYmLEs-1710981736228)]

  • 17
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫淘宝是指使用Python编写的程序来自动化地获取淘宝网站的信息。爬虫可以通过发送HTTP请求模拟用户的访问,获取淘宝网页的源代码,并从中提取出需要的数据,如商品信息、价格等。Python作为一门强大的编程语言,提供了各种库和工具,使得编写爬虫程序更加简单和高效。 在Python中,可以使用第三方库如Requests和Beautiful Soup来发送HTTP请求和解析HTML页面。首先,需要发送HTTP请求获取淘宝网页的源代码。然后,使用Beautiful Soup解析HTML页面,提取出所需的数据。可以通过Beautiful Soup提供的一些方法和选择器来定位和提取特定的元素,如商品名称、价格、评论等。最后,可以将提取到的数据保存到文件或进行进一步的处理和分析。 需要注意的是,淘宝网站对爬虫的访问有一定的限制和反机制。为了避免被淘宝网站封禁或其他法律纠纷,在编写爬虫程序时需要遵守相关的爬虫道德规范和法律法规。可以设置合理的取速度,避免对网站的正常运营造成干扰。同时,要尊重网站的robots.txt文件,遵守网站的取策略和规定。 总结来说,Python爬虫淘宝是使用Python编写的程序来获取淘宝网站的信息。通过发送HTTP请求和解析HTML页面,可以获取和提取所需的数据。但在编写爬虫程序时,需要遵守相关的道德规范和法律法规,以确保合法和合理地使用爬虫技术。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python爬虫详解](https://blog.csdn.net/weixin_40228200/article/details/128389551)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [Python爬虫实战淘宝商品数据分析](https://blog.csdn.net/m0_59235245/article/details/124846795)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值