python爬虫代写价格_python爬取京东价格

1.爬取商品名

Apple iPhone 7 (A1660) 32G 黑色 移动联通电信4G手机

title = soup.select('.sku-name')[0].string.strip()

2.爬取价格

在京东的单个产品页面上,通过查看源码检查html,可以看到

这里没有直接给出价格。

这是因为价格数据是通过JS动态加载的,而HTML源码中并不包含动态加载的页面内容。

如何获取京东商品的价格

在火狐浏览器中安装了Firebug。右键点击商品价格,选择“使用Firebug查看元素”,可以看到打开的“HTML”中包含了价格信息。这是因为Firebug的”HTML”显示的是动态加载完所有数据后的源码。

37b977494d50?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

这个就是针对价格请求返回的响应页面,其中”p”表示的就是商品的价格。

3.爬取好评率

37b977494d50?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

代码如下

# -*- coding:utf-8 -*-

from bs4 import BeautifulSoup

import requests

import re

def get_page():

url = "https://item.jd.com/3133817.html"

headers = {

"User-Agent":"Mozilla/4.0 (compatible;MSIE 7.0;Windows NT 5.1;360SE)"

}

reponse = requests.get(url,headers=headers)

if reponse.status_code == 200:

return reponse.text

return None

def prase_page(html):

result_list = []

result_dict = {}

soup = BeautifulSoup(html,'html.parser')

title = soup.select('.sku-name')[0].string.strip()

price_url = "https://p.3.cn/prices/mgets?skuIds=J_3133817"

url_session = requests.Session()

price_req = url_session.get(price_url).text

price = re.findall(r'"p":"(.*?)"', price_req)

appraise_url = "https://sclub.jd.com/comment/productPageComments.action?&productId=3133817&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1"

appraise_session = requests.Session()

appraise_req = appraise_session.get(appraise_url).text

appraise = re.findall(r'"goodRateShow":(\d+),.*', appraise_req)

print(title)

print(price[0])

print(appraise[0])

# for tag in soup.find_all('div',class_='itemInfo-wrap'):

# title = tag.find('div',class_='sku-name').get_text()

# # price = tag.find('span',class_='price J-p-3133817').get_text()

# p_price = tag.find('div',class_='dd')

# p_span = p_price.findAll('span')

# price = p_span[0].contents[1]

# print(price)

html = get_page()

prase_page(html)

37b977494d50?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个简单的Python爬虫网页数据并解析数据的教程: 1. 确定目标网站和要的信息 首先,需要确定要的网站和要提的信息。可以使用Python的requests库向网站发送HTTP请求获HTML源代码,并使用BeautifulSoup库解析HTML文档获目标数据。 例如,我们要CSDN博客的文章标题和链接,可以先打开CSDN博客主页,右键查看网页源代码,找到文章标题和链接所在的HTML标签。 2. 发送HTTP请求获HTML源代码 接下来,使用Python的requests库向网站发送HTTP请求,获HTML源代码。 ``` import requests url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text ``` 3. 解析HTML文档获目标数据 使用BeautifulSoup库解析HTML文档,获目标数据。 ``` from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 上述代码中,通过`find_all`方法找到所有class属性为"title"的div标签,然后在每个div标签中找到第一个a标签,获链接和标题文本。 4. 完整代码 ``` import requests from bs4 import BeautifulSoup url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 以上就是一个简单的Python爬虫网页数据并解析数据的教程。需要注意的是,在网站数据时要遵守网站的爬虫协议,避免被网站封禁IP。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值