爬虫入门-京东评论爬取和简单分析[学习笔记]

随便点击一个商品,我点的是“https://item.jd.com/3533885.html”
查看评论是否动态数据:点击改变评论页数(图中1处),网址(图中2处)不会变,说明是动态数据
在这里插入图片描述

F12(或者右击检查网页源代码)->点击“Network”->F5(或ctrl+R)
点击网页“商品评价”
在这里插入图片描述
找到途中1,点击,复制2url:“https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=3533885&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1”
打开查看是否评论区的json数据:
在这里插入图片描述
把整个网页复制到“http://json.cn/”,删除前面的“fetchJSON_comment98(”和后面的“);”
就能更清晰的看出数据:
在这里插入图片描述

1.获取评论区的json数据

import  requests
url='https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=3533885&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1'
resp=requests.get(url)
print(resp.text)

2.获取商品评论的最大页数(根据商品编号)

import  requests
import json
def get_comments(productId,page):
    url = 'https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId={0}&score=0&sortType=5&page={1}&pageSize=10&isShadowSku=0&fold=1'.format(
        productId, page)
    resp=requests.get(url)
    #print(resp.text)
    s = resp.text.replace('fetchJSON_comment98(', '')
    s = s.replace(');', '')
    #将str类型的数据转成json格式的数据
    json_data=json.loads(s)
    return json_data
#获取最大页数
def get_max_page(productId):
    dic_data=get_comments(productId,0)  #调用get_comments函数,向服务器发送请求,获取字典数据
    return dic_data['maxPage']

if __name__ == '__main__':
    productId="3533885"
    print(get_max_page(productId))

100

3.根据json数据确定自己要获取的数据

在这里插入图片描述

import  requests
import json
import  time
import  openpyxl  #用于操作Excel文件的
def get_comments(productId,page):
    url = 'https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId={0}&score=0&sortType=5&page={1}&pageSize=10&isShadowSku=0&fold=1'.format(
        productId, page)
    resp=requests.get(url)
    #print(resp.text)
    s = resp.text.replace('fetchJSON_comment98(', '')
    s = s.replace(');', '')
    #将str类型的数据转成json格式的数据
    json_data=json.loads(s)
    return json_data
#提取数据
def get_info(productId):
    #调用函数获取商品的最大评论页数
    #max_page=get_max_page(productId)
    max_page=20
    lst=[]  #用于存储提取到的商品数据
    for page in range(1,max_page+1):   #循环执行次数
        #获取每页的商品评论
        comments=get_comments(productId,page)
        comm_lst=comments['comments']   #根据key获取value,根据comments获取到评论的列表(每页有10条评论)
        #遍历评论列表,分别获取每条评论的中的内容,颜色,商品的类型
        for item in comm_lst:   #每条评论又分别是一个字典,再继续根据key获取值
            content=item['content']  #获取评论中的内容
            color=item['productColor'] #获取评论购买商品的口味
            lst.append([content,color])  #将每条评论的信息添加到列表中
        time.sleep(3)  #延迟时间,防止程序执行速度太快,被封IP
    save(lst)  #调用自己编写的函数,将列表中的数据进行存储

#用于将爬取到的数据存储到Excel中
def save(lst):
    wk=openpyxl.Workbook () #创建工作薄对象
    noodles=wk.active  #获取活动表
    #遍历列表,将列表中的数据添加到工作表中,列表中的一条数据,在Excel中是 一行
    for item in lst:
        sheet.append(item)
    #保存到磁盘上
    wk.save('销售数据.xlsx')

if __name__ == '__main__':
    productId='3533885'
    #print(get_max_page(productId))
    get_info(productId)

在这里插入图片描述

4.简单分析

(1)查看表格几行几列

import  openpyxl
#从Excel中读取数据
wk=openpyxl.load_workbook('销售数据.xlsx')
noodles=wk.active  #获取活动sheet表
#获取最大行数和最大列数
rows=noodles.max_row     #200行
cols=noodles.max_column   #2列
print(rows,cols)

200 2

(2)统计口味数据(简单对excel表格进行处理)

import  openpyxl
#从Excel中读取数据
wk=openpyxl.load_workbook('销售数据.xlsx')
noodles=wk.active  #获取活动sheet表
#获取最大行数和最大列数
rows=noodles.max_row     #200行
cols=noodles.max_column   #2列

lst=[] #用于存储方便面口味
for i in range(1,rows+1):
    color=noodles.cell(i,2).value
    lst.append(color)

'''for item in lst:
    print(item)
    '''
'''从Excel中将方便面口味数据读取完毕,添加到列表中,以下操作,开始数据统计,统计不同口味的方便面销售'''
'''Python中有一种数据结构叫字典,使用口味作key,使用销售数量作value'''
dic_color={}
for item in lst:
    dic_color[item]=0

for item in lst:
    for color in dic_color:  #遍历字典
        if item==color:
            dic_color[color]+=1
            break
'''for item in dic_color:
    print(item,dic_color[item])'''
lst_total=[]
for item in dic_color:
    lst_total.append([item,dic_color[item],dic_color[item]/200*1.0])

for item in lst_total:
    print(item)

[‘大食袋酸菜牛肉面’, 23, 0.115]
[‘大食袋鲜虾鱼板面’, 34, 0.17]
[‘大食袋红烧牛肉面’, 110, 0.55]
[‘大食袋香辣牛肉面’, 31, 0.155]
[None, 2, 0.01]

(3)生成饼图

import  openpyxl
import matplotlib.pyplot as pit
#从Excel中读取数据
wk=openpyxl.load_workbook('销售数据.xlsx')
noodles=wk.active  #获取活动sheet表
#获取最大行数和最大列数
rows=noodles.max_row     #200行
cols=noodles.max_column   #2列

lst=[] #用于存储方便面口味
for i in range(1,rows+1):
    color=noodles.cell(i,2).value
    lst.append(color)

'''for item in lst:
    print(item)
    '''
'''从Excel中将方便面口味数据读取完毕,添加到列表中,以下操作,开始数据统计,统计不同口味的方便面销售'''
'''Python中有一种数据结构叫字典,使用口味作key,使用销售数量作value'''
dic_color={}
for item in lst:
    dic_color[item]=0

for item in lst:
    for color in dic_color:  #遍历字典
        if item==color:
            dic_color[color]+=1
            break
'''for item in dic_color:
    print(item,dic_color[item])'''
lst_total=[]
for item in dic_color:
    lst_total.append([item,dic_color[item],dic_color[item]/200*1.0])

'''for item in lst_total:
    print(item)
    '''
'''数据统计完毕,开始进行数据可视化'''

labels=[item[0] for item in lst_total]  #使用列表生成式,得到饼图的标签
fraces=[item[2] for item in lst_total]  #饼图中的数据源
pit.rcParams['font.family']=['SimHei']
pit.pie(x=fraces,labels=labels,autopct='%1.1f%%')
#pit.show()
pit.savefig('饼图.jpg')

在这里插入图片描述

  • 2
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Python中,爬取京东等电商平台的销售数据通常需要使用到网络爬虫技术,结合一些第三方库如`requests`、`BeautifulSoup`或`Scrapy`框架。这里我将简述一个基本的步骤,但请注意实际操作可能需要遵守京东的使用条款和robots.txt协议,以及可能存在的反爬机制。 1. **安装必要的库**: 首先,你需要安装`requests`库来发送HTTP请求,`BeautifulSoup`或`lxml`用于解析HTML。 ```bash pip install requests beautifulsoup4 ``` 2. **获取网页源代码**: 使用`requests.get()`获取页面的HTML内容。假设我们想要抓取笔记本电脑列表页: ```python import requests from bs4 import BeautifulSoup url = "https://www.jd.com品类搜索.html?keyword=%E7%9B%AE%E8%AE%B0%E8%AE%BA" response = requests.get(url) html_content = response.text ``` 3. **解析HTML**: 使用`BeautifulSoup`解析HTML内容,找到包含销售信息的部分。由于京东数据结构可能会变化,通常会寻找产品列表、销量等元素的class或id。 ```python soup = BeautifulSoup(html_content, 'lxml') sales_data = soup.find_all('div', class_='product-item-sales') # 假设销量在这一类别的元素中 ``` 4. **提取销售数据**: 对每个找到的销售数据元素,提取出销量信息。这可能需要进一步查找子元素并解析其文本。 ```python sales_numbers = [element.find('span', class_='J_salesNum')['data-value'] for element in sales_data] ``` 5. **处理和输出数据**: 最后,你可以将销量数据存储在一个列表或文件中,或者直接打印出来。 ```python for i, number in enumerate(sales_numbers): print(f"第{i+1}名:{number}") ``` 注意:这只是一个基础示例,实际爬取时可能需要处理分页、登录验证、动态加载内容等问题。同时,频繁抓取可能会被网站封禁,因此建议在合法范围内,并确保你的行为符合平台政策。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值