python 爬取亚马逊商品信息(一)

需求

需要大量竞品信息做数据分析,爬取亚马逊蓝牙耳机商品、名称、制造商、产品关于、用户评分等信息,商品量约7K,环境anaconda+Pycharm。

设计思路

首先获取亚马逊商城列表每一个商品的URL并,将其存入一个Excel文件。第二个工具读取前面保存的URL,利用pyquery+selenium 获取网页信息。并保存到最终成品——Excel表格中。

环境准备

使用webdriver.Chrome 模拟启动浏览器(别问我什么要这么麻烦,亚马逊有反扒机制),webdriver.Chrome 需要安装谷歌浏览器并将chromedriver.exe(文件下附),放到python路径下,我的路径C:\Users\admin\Anaconda3下。写一句driver = webdriver.Chrome() 浏览器就启动了!

实现步骤

1、爬取亚马逊商品列表的每一个url


if __name__ == '__main__':

    # 设置get直接返回,不再等待界面加载完成

    desired_capabilities = DesiredCapabilities.CHROME

    desired_capabilities["pageLoadStrategy"] = "none"

    chrome_options = webdriver.ChromeOptions()

    # 无窗口模式

    # chrome_options.add_argument('--headless')

    # 禁止硬件加速,避免严重占用cpu

    chrome_options.add_argument('--disable-gpu')

    # 关闭安全策略

    chrome_options.add_argument("disable-web-security")

    # 禁止图片加载

    chrome_options.add_experimental_option('prefs', {
   'profile.managed_default_content_settings.images': 2})

    # 隐藏"Chrome正在受到自动软件的控制

    chrome_options.add_argument('disable-infobars')

    # 设置开发者模式启动,该模式下webdriver属性为正常值

    chrome_options.add_experimental_option('excludeSwitches', ['enable-automation'])

    # 模拟浏览器

    chrome_options.add_argument(
        'user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"')

    driver = webdriver.Chrome(options
  • 0
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
您好!要使用Python爬取亚马逊网站商店的商品评论,您可以使用以下步骤: 1. 安装必要的库:您可以使用`pip`命令安装`requests`和`beautifulsoup4`库。 2. 发送请求并获取页面内容:使用`requests`库发送GET请求,获取亚马逊网站商店商品页面的HTML内容。 ```python import requests url = "https://www.amazon.com/dp/商品编号" # 替换为您要爬取评论的商品链接 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36" } # 添加User-Agent头部,模拟浏览器请求 response = requests.get(url, headers=headers) html_content = response.text ``` 请注意替换`url`变量为您要爬取评论的实际商品链接,并根据需要修改`headers`中的User-Agent。 3. 解析HTML内容:使用`beautifulsoup4`库来解析HTML内容,提取商品评论信息。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, "html.parser") # 根据页面结构和CSS选择器提取评论信息 comments = soup.select("选择器") # 用合适的CSS选择器替换 "选择器" for comment in comments: # 处理每条评论的相关信息 # 提取评论内容、评分等信息并进行处理 pass ``` 在`comments`中,您可以使用合适的CSS选择器来提取评论信息。请根据实际情况替换选择器,并在循环中处理每条评论的相关信息。 需要注意的是,亚马逊网站对爬取行为有一定限制,请确保您的爬取行为符合亚马逊的使用政策和规定。 希望对您有所帮助!如果您有任何问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值