如何使用selenium自动化爬取淘宝信息

如何使用自动化爬取淘宝信息

1、首先我们要确保安装了谷歌浏览器,并且是84.0版本

在这里插入图片描述

因为接下来我们要用到自动化这款软件,必须得和版本相匹配,否则就会失败

在这里插入图片描述

2、然后接下来,打开我们的taobao文件选择里面dist文件,这里提醒一下文件名最好不要随便乱改,因为这个exe文件是和py文件相匹配的,所以防止出错,test.exe这个文件是获取淘宝商品的属性,taobao-shangpingxinxi.exe这个是获取商品的销量、价格、标题,至于为什么不能放到一起爬取呢,因为这两个是不同页面来的,之前我一直在反复尝试,试着把这两个exe文件一起写,但是可惜一直都是失败告终。

3、前言说完了,接下来说说具体操作流程,首先打开我们其中的一个exe文件等他出现一个这个黑色的文件框即可,如果中途问你是否允许这个文件执行,点击确认即可,然后往里面输入你要搜索的关键词

在这里插入图片描述

例如我输入的是灯具组合 全屋 套餐

在这里插入图片描述

个人建议,最好就是先随便找个文本输入关键词,然后复制粘贴进去这个终端,因为在终端打字挺麻烦的,确认好你的关键词之后,按一下回车就开始运行这个程序了

4、运行这个程序之后,会自动弹出我们下载好的谷歌,这里我使用的是手机扫码登录,这样方便一点,可用度也高,任何人有淘宝号都可以运行这个程序,我设置了10秒钟的时间,如果超过10秒,那么程序会重新执行,所以最好速度要快

在这里插入图片描述

点击右上角那个扫码登录

在这里插入图片描述

拿出手机打开淘宝APP在搜索栏旁边有个扫二维码的东西,点击即可,然后扫码在手机端点击确认

在这里插入图片描述

都确认好之后就会跳转到我们需要爬取的页面
在这里插入图片描述

这时候我们什么都不用干,让它自己自动化爬取就好了,会自动翻页,淘宝搜索关键词最多只有100页,那么我们设置100页就好了,每当爬一页就会写入成功一次,这个是写入我们的CSV文件的
在这里插入图片描述

5、但是当我们打开我们的CSV文件的时候发现一个奇怪的现象

在这里插入图片描述

我们的CSV文件乱码了,这是因为我们的编码格式出了问题,这时候我们用Excel转换一下就好了,先创建一个Excel表打开,选择数据选择自文本,打开我们要导入的CSV文件

在这里插入图片描述

然后按照下面步骤来就好了

在这里插入图片描述

在导入我们的CSV文件之后,第一步先选择好我们的原始格式,第二步按下一步,第三步选择逗号,并且把tab键那个钩子去掉,文本识别符号选择双引号,然后再点击下一步

在这里插入图片描述

在这里插入图片描述

然后点击完成,最后的效果就是我们需要的信息了

中…(img-LXmQHQWC-1598376822720)]

然后点击完成,最后的效果就是我们需要的信息了

在这里插入图片描述
源代码我放到GitHub上了,最好有一定基础,不然看不懂不会操作的

这个是适合小白,新手,什么东西我都做好了,你按照上文描述来使用即可

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
使用 Selenium 自动化爬取淘宝商品详情数据可以分为以下步骤: 1. 安装 Selenium 和浏览器驱动:SeleniumPython 中用于自动化 Web 浏览器的库,需要安装;同时需要下载对应浏览器的驱动程序,如 ChromeDriver。 2. 打开浏览器并访问淘宝网站:使用 Selenium 打开指定的浏览器并访问淘宝网站。 3. 搜索关键字并获取搜索结果:在搜索框中输入关键字并点击搜索按钮,等待搜索结果加载出来,使用 Selenium 获取搜索结果页面的 HTML 代码。 4. 解析搜索结果页面:使用 BeautifulSoup 解析搜索结果页面,获取每个商品的链接。 5. 进入商品详情页面并获取数据:遍历每个商品的链接,使用 Selenium 进入商品详情页面并获取需要的数据,如商品标题、价格、评论数、销量等。 6. 存储数据:将获取到的数据存储到数据库或文件中。 下面是一个示例代码: ```python from selenium import webdriver from bs4 import BeautifulSoup import time # 设置浏览器驱动路径 driver_path = './chromedriver.exe' # 创建浏览器对象 browser = webdriver.Chrome(driver_path) # 设置搜索关键字 keyword = '手机' # 访问淘宝网站 browser.get('https://www.taobao.com/') # 等待页面加载完成 time.sleep(3) # 找到搜索框并输入关键字 browser.find_element_by_name('q').send_keys(keyword) # 点击搜索按钮 browser.find_element_by_class_name('btn-search').click() # 等待搜索结果加载完成 time.sleep(5) # 获取搜索结果页面的 HTML 代码 html = browser.page_source # 使用 BeautifulSoup 解析搜索结果页面 soup = BeautifulSoup(html, 'html.parser') # 获取所有商品的链接 links = [] for item in soup.find_all('a', class_='J_ClickStat'): link = item.get('href') if link.startswith('https://'): links.append(link) # 遍历每个商品的链接并获取数据 for link in links: # 进入商品详情页面 browser.get(link) # 等待页面加载完成 time.sleep(3) # 获取商品标题 title = browser.find_element_by_xpath('//h3[@class="tb-main-title"]/text()') # 获取商品价格 price = browser.find_element_by_xpath('//div[@class="tb-property-cont"]/div[@class="tb-detail-price"]/span[@class="tb-price"]/text()') # 获取商品评论数 comment_count = browser.find_element_by_xpath('//div[@class="tb-rate-counter"]/span[@class="tm-count"]/text()') # 获取商品销量 sales_volume = browser.find_element_by_xpath('//div[@class="tb-sales-counter"]/span[@class="tm-count"]/text()') # 打印商品信息 print('标题:', title) print('价格:', price) print('评论数:', comment_count) print('销量:', sales_volume) # 关闭浏览器 browser.quit() ``` 需要注意的是,使用自动化爬取数据容易被网站识别为机器行为,可以添加一些随机等待时间、请求头伪装等方式来降低被识别的概率。同时,爬取数据时也需要遵守网站的爬虫规则,如不过度频繁访问、不采集敏感信息等。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有猫腻妖

你的鼓励是我更新的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值