python自动化爬取淘宝商品数据导入execl表格!

 

hello,大家好,我是夜斗小神社!

电商时代,淘宝、京东、天猫商品数据对店铺运营有极大的帮助,因此获取相应店铺商品的数据能够带来极大的价值,那么我们如何获取到相应的数据呢?

上一篇我们讲了python打包exe可执行文件: Python打包成exe文件史上最详细教程: https://blog.csdn.net/xtreallydance/article/details/112643658 这次我们来讲解淘宝爬虫代码————代码如下:

 
 

from selenium import webdriver import time import csv import re

导入自动化的库selenium, 缓存时间time库, 将文件保存为csv形式, 导入re正则匹配的库

 
 

if __name__ == '__main__': keyword = input("请输入你要商品的关键字:") path = r'L:\webdriver\chromedriver.exe' driver = webdriver.Chrome(path) driver.get('https://www.taobao.com/') main()

输入查询的关键字: 例如输入ins潮流T恤,path为webdriver.exe驱动设备存放的路径,实例化一个driver对象,然后利用get方法访问淘宝网址!再调用main()方法.

 

请大家记住,一定要扫码登录!不然会被淘宝反爬!如图所示!

  • 程序运行开始结果如下:

 

 

 
 

def main(): print('正在爬取第一页数据') page = search_product(keyword) get_product() page_num = 1 # q不变 0 44 188(页数*44) while page_num != page: print('-*-' * 50 ) print('正在爬取第{}页的数据'.format(page_num + 1)) print('*-*' * 50) driver.get('https://s.taobao.com/search?q={}&s={}'.format(keyword, page_num)) # 浏览器等待方法 driver.implicitly_wait(2) # 最大化浏览器 driver.maximize_window() get_product() page_num += 1

main()方法当中呢,首先利用search_product函数与get_product函数爬取一页的数据, 再利用while循环爬取全部数据, 我们首先讲解一页数据的爬取.

 
 

def search_product(key): driver.find_element_by_id('q').send_keys(key) driver.find_element_by_class_name('btn-search').click() # 浏览器窗口最大化 driver.maximize_window() time.sleep(15) # 因为自动登录基本实现不了,所以要实现手动登录 # 找到页数的标签 page = driver.find_element_by_xpath('//*[@id="mainsrp-pager"]/div/div/div/div[1]').text page = re.findall('(\d+)', page)[0] return int(page)

首先利用driver.find_element_by_id这个方法找到输入框,将key这个变量输入到搜索框中,再利用driver.find_element_by_class_name方法找到搜索两个字,利用click()方法点击搜索.将窗口最大化,并暂停15s.因为自动登录淘宝当中会被阿里巴巴识别,所有暂停15s是为了用手动扫码登录. 然后用用xapth找到page页数的标签,匹配数字获取第一个值,返回page页数,比如第5页,返回的就是5,将参数传入到page中,在调用get_product()方法获取这一页的商品详细数据,例如商品名字、商品价格、付款人数、商品地址、商品店铺名等等等,下面来看get_product()这个函数

 

 

 
 

def get_product(): divs = driver.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq "]') print(divs) for div in divs: # 商品名称 info = div.find_element_by_xpath('.//div[@class="row row-2 title"]/a').text # 商品价格 price = div.find_element_by_xpath('.//strong').text + "元" # 付款人数 deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text # 店铺名称 name = div.find_element_by_xpath('.//div[@class="shop"]/a').text # 店铺地点 place = div.find_element_by_xpath('.//div[@class="location"]').text print(info, price, deal, name, place, sep='|') with open('ins短袖.csv', 'a', newline="") as fp: csvwriter = csv.writer(fp, delimiter=',') csvwriter.writerow([info, price, deal, name, place])

首先找到商品列表的标签divs,然后利用for循环获取每一个商品的div标签,利用xpath语法获取到info、price、deal、name、place信息然后保存为csv文件形式!

  • 最终爬取下来的数据导入到excel中,如图所示:

 

好啦今天的分享就到这里啦,然后小夜斗就要滚去学习啦,see you!

好的,下面是Python爬取淘宝商品信息的基本思路: 1. 分析淘宝商品搜索页面的HTML结构,确定需要爬取数据,如商品标题、价格、销量、评论数、店铺名称等。 2. 使用Python虫框架(如requests、Scrapy等)向淘宝商品搜索页面发送请求,获取页面HTML源代码。 3. 使用Python的HTML解析库(如BeautifulSoup、pyquery等)解析HTML源代码,获取需要的数据。 4. 将获取到的数据保存到本地文件或数据库中。 下面是一个简单的Python爬取淘宝商品信息的示例代码: ```python import requests from bs4 import BeautifulSoup def get_taobao_info(keyword): url = 'https://s.taobao.com/search?q={}'.format(keyword) headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'lxml') items = soup.select('.item.J_MouserOnverReq') for item in items: title = item.select('.title')[0].get_text().strip() price = item.select('.price')[0].get_text() sale = item.select('.deal-cnt')[0].get_text() shop = item.select('.shop')[0].get_text().strip() print('商品:{},价格:{},销量:{},店铺:{}'.format(title, price, sale, shop)) if __name__ == '__main__': keyword = '手机' get_taobao_info(keyword) ``` 这段代码实现了对淘宝商品搜索页面的爬取,并输出了商品的标题、价格、销量和店铺名称。你可以根据需要修改代码,获取更多商品信息。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值