python爬虫之爬取某东华为p50搜索页+叠加分页

爬取某东p50详情页评论
爬取某东p50详细页评论并翻页+文件保存数据

1、获取网页地址
在这里插入图片描述
依旧老操作获取源码

import requests
import re



url ='https://search.jd.com/Search?keyword=华为p50'
headers = {
         "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (HTML, like Gecko) "
                       "Chrome/96.0.4664.93 Safari/537.36 "
}
resp = requests.get(url, headers=headers)
print(resp.text)

获取了源码后,我们要抽丝剥茧,把我们想要的数据提取出来,
在这里插入图片描述整个模块都属于<class="gl-item">
所以我们可以使用beautifulSoup提取我们想要的数据
1、下载beautifulSoup的库
2、导入from bs4 import BeautifulSoup
3、
在这里插入图片描述
4、在这里插入图片描述 运行:在这里插入图片描述
有我们需要的数据
需要进一步提取。将价格提取出来、

f12查看价格所在的标签提取出来<class=“p-price”>

price = li.find(class_="p-price").get_text()

运行结果如下:
在这里插入图片描述
同理,编号、名称、地址、店家都能用相同的方式得出。
在这里插入图片描述代码如下:

for li in goods_list:
    price = li.find(class_="p-price").find('i').get_text()
    name = li.find(class_="p-name p-name-type-2").find('em').get_text()  # 商品名称
    detail_addr = li.find(class_='p-name p-name-type-2').find('a')['href']  # 商品地址
    shop = li.find(class_='p-shop').find('a').get_text()
    tuple=(price,name,detail_addr,shop)
    print(tuple)

运行结果:在这里插入图片描述

翻页上篇我们知道了怎么分页。


def get_html(url ,currentPage, pageSize):
    headers = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36"
       }
    print("获取网站信息"+str(currentPage)+"页消息")
    if currentPage != 1:
        url = url+'&page='+ str(currentPage) +'&s=' + str(pageSize) + '&click=0'

    resp =requests.get(url,headers=headers)
    if resp.status_code == 200:
        html =resp.text
        return html
    else:
        print("获取失败!")

 _current_row = 0;#记录行数

    keyword ='华为p50'
    url = 'https://search.jd.com/Search?keyword='+keyword+'&enc=utf-8'

    total = input('输入需要爬取的页数:')
    page ={
        'total':0,#总页数
        'currentPage':1,#当前页数
        'pageSize':0 #每页的条数
    }
main主程序

    page['total'] = eval(total)
    for i in range(page['total']):
        html = get_html(url,page['currentPage'],page['currentPage']*page['pageSize'])

在这里插入图片描述

源代码:

import requests
from bs4 import BeautifulSoup



def get_html(url ,currentPage, pageSize):
    headers = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36"
    }
    print( "获取网站信息" + str(currentPage) + "页消息" )
    if currentPage != 1:
        url = url + '&page=' + str(currentPage) + '&s=' + str(pageSize) + '&click=0'
    resp = requests.get(url, headers=headers)
    if resp.status_code == 200:
        html = resp.text
        return html
    else:
        print("获取失败!")

if __name__ == '__main__':
    _current_row = 0;  # 记录行数
    keyword = '华为p50'
    url = 'https://search.jd.com/Search?keyword=' + keyword + '&enc=utf-8'
    total = input( '输入需要爬取的页数:' )
    page = {
            'total': 0,  # 总页数
            'currentPage': 1,  # 当前页数
            'pageSize': 0  # 每页的条数
    }

    page['total'] = eval( total )
    for i in range( page['total'] ):
        html = get_html( url, page['currentPage'], page['currentPage'] * page['pageSize'] )
        soup = BeautifulSoup(html, 'lxml')
        goods_list = soup.find_all('li', class_='gl-item')
        print( "分析到第" + str( page['currentPage'] ) + '页共有' + str( len( goods_list ) ) + '条商品信息' )
        for li in goods_list:
            _current_row += 1  # 记录行数
            no = li['data-sku']  # 商品编号
            price = li.find(class_="p-price").find('i').get_text()
            name = li.find(class_="p-name p-name-type-2").find('em').get_text()  # 商品名称
            detail_addr = li.find(class_='p-name p-name-type-2').find('a')['href']  # 商品地址
            shop = li.find(class_='p-shop').find('a').get_text()
            tuple = (price,name,detail_addr,shop)
            print(tuple)



page['currentPage'] = page['currentPage'] + 1
page['pageSize'] = len(goods_list) * page['currentPage']

此次分享就到这里,欢迎大家指导指正~ 我是爱吃肉的小白yyyloki,如果你觉得不错的话点个赞👍吧!或者你可以关注,持续更新。我们下次见~886

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值