python自动化爬取淘宝商品数据导入execl表格

电商时代,淘宝、京东、天猫商品数据对店铺运营有极大的帮助,因此获取相应店铺商品的数据能够带来极大的价值,那么我们如何获取到相应的数据呢?

这次我们来讲解淘宝爬虫代码————代码如下:

from selenium import webdriver
import time
import csv
import re

导入自动化的库selenium, 缓存时间time库, 将文件保存为csv形式, 导入re正则匹配的库

if __name__ == '__main__':
    keyword = input("请输入你要商品的关键字:")
    path = r'L:\webdriver\chromedriver.exe'
    driver = webdriver.Chrome(path)
    driver.get('https://www.taobao.com/')
    main()

输入查询的关键字: 例如输入ins潮流T恤,path为webdriver.exe驱动设备存放的路径,实例化一个driver对象,然后利用get方法访问淘宝网址!再调用main()方法.

请大家记住,一定要扫码登录!不然会被淘宝反爬!如图所示!

  • 程序运行开始结果如下:

def main():
    print('正在爬取第一页数据')

    page = search_product(keyword)
    get_product()
    page_num = 1
    # q不变 0 44 188(页数*44)
    while page_num != page:
        print('-*-' * 50 )
        print('正在爬取第{}页的数据'.format(page_num + 1))
        print('*-*' * 50)
        driver.get('https://s.taobao.com/search?q={}&s={}'.format(keyword, page_num))
        # 浏览器等待方法
        driver.implicitly_wait(2)
        # 最大化浏览器
        driver.maximize_window()
        get_product()
        page_num += 1

main()方法当中呢,首先利用search_product函数与get_product函数爬取一页的数据, 再利用while循环爬取全部数据, 我们首先讲解一页数据的爬取.

def search_product(key):
    driver.find_element_by_id('q').send_keys(key)
    driver.find_element_by_class_name('btn-search').click()
    # 浏览器窗口最大化
    driver.maximize_window()
    time.sleep(15)
    # 因为自动登录基本实现不了,所以要实现手动登录
    # 找到页数的标签
    page = driver.find_element_by_xpath('//*[@id="mainsrp-pager"]/div/div/div/div[1]').text
    page = re.findall('(\d+)', page)[0]
    return int(page)

首先利用driver.find_element_by_id这个方法找到输入框,将key这个变量输入到搜索框中,再利用driver.find_element_by_class_name方法找到搜索两个字,利用click()方法点击搜索.将窗口最大化,并暂停15s.因为自动登录淘宝当中会被阿里巴巴识别,所有暂停15s是为了用手动扫码登录. 然后用用xapth找到page页数的标签,匹配数字获取第一个值,返回page页数,比如第5页,返回的就是5,将参数传入到page中,在调用get_product()方法获取这一页的商品详细数据,例如商品名字、商品价格、付款人数、商品地址、商品店铺名等等等,下面来看get_product()这个函数

def get_product():
    divs = driver.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq  "]')
    print(divs)
    for div in divs:
        # 商品名称
        info = div.find_element_by_xpath('.//div[@class="row row-2 title"]/a').text
        # 商品价格
        price = div.find_element_by_xpath('.//strong').text + "元"
        # 付款人数
        deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text
        # 店铺名称
        name = div.find_element_by_xpath('.//div[@class="shop"]/a').text
        # 店铺地点
        place = div.find_element_by_xpath('.//div[@class="location"]').text
        print(info, price, deal, name, place, sep='|')
        with open('ins短袖.csv', 'a', newline="") as fp:
            csvwriter = csv.writer(fp, delimiter=',')
            csvwriter.writerow([info, price, deal, name, place])

首先找到商品列表的标签divs,然后利用for循环获取每一个商品的div标签,利用xpath语法获取到info、price、deal、name、place信息然后保存为csv文件形式!

  • 最终爬取下来的数据导入到excel中,如图所示:

如果你对Python感兴趣,想要学习python,这里给大家分享一份Python全套学习资料,都是我自己学习时整理的,希望可以帮到你,一起加油!

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

1️⃣零基础入门

① 学习路线

对于从来没有接触过Python的同学,我们帮你准备了详细的学习成长路线图。可以说是最科学最系统的学习路线,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

② 路线对应学习视频

还有很多适合0基础入门的学习视频,有了这些视频,轻轻松松上手Python~
在这里插入图片描述

③练习题

每节视频课后,都有对应的练习题哦,可以检验学习成果哈哈!
在这里插入图片描述

2️⃣国内外Python书籍、文档

① 文档和书籍资料

在这里插入图片描述

3️⃣Python工具包+项目源码合集

①Python工具包

学习Python常用的开发软件都在这里了!每个都有详细的安装教程,保证你可以安装成功哦!
在这里插入图片描述

②Python实战案例

光学理论是没用的,要学会跟着一起敲代码,动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。100+实战案例源码等你来拿!
在这里插入图片描述

③Python小游戏源码

如果觉得上面的实战案例有点枯燥,可以试试自己用Python编写小游戏,让你的学习过程中增添一点趣味!
在这里插入图片描述

4️⃣Python面试题

我们学会了Python之后,有了技能就可以出去找工作啦!下面这些面试题是都来自阿里、腾讯、字节等一线互联网大厂,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
在这里插入图片描述
在这里插入图片描述

5️⃣Python兼职渠道

而且学会Python以后,还可以在各大兼职平台接单赚钱,各种兼职渠道+兼职注意事项+如何和客户沟通,我都整理成文档了。
在这里插入图片描述

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
你可以使用Python中的各种库来爬取网站中的表格,并将其导入到Excel表格中。下面是一个简单的示例,使用`requests`库来获取网页内容,使用`beautifulsoup4`库来解析HTML,以及使用`openpyxl`库来操作Excel文件。 首先,你需要安装这些库。你可以使用以下命令来安装它们: ``` pip install requests beautifulsoup4 openpyxl ``` 然后,你可以按照以下步骤编写代码: ```python import requests from bs4 import BeautifulSoup from openpyxl import Workbook # 发起HTTP请求获取网页内容 url = 'http://example.com/table.html' # 将此处替换为你要爬取的网页URL response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML soup = BeautifulSoup(html, 'html.parser') # 创建一个Excel工作簿和工作表 workbook = Workbook() sheet = workbook.active # 查找表格元素并将其写入Excel表格 table = soup.find('table') # 假设表格是通过<table>标签定义的 rows = table.find_all('tr') # 查找所有行 for row in rows: cells = row.find_all('td') # 查找当前行的所有单元格 row_data = [] for cell in cells: row_data.append(cell.text) # 提取单元格文本内容 sheet.append(row_data) # 将一行数据写入Excel表格 # 保存Excel文件 workbook.save('table_data.xlsx') # 将此处替换为你想要保存的文件名和路径 ``` 上述代码会将表格中的数据逐行写入Excel表格。你需要将`http://example.com/table.html`替换为你要爬取的网页URL。最后,它会将数据保存到名为`table_data.xlsx`的Excel文件中。你可以根据需要修改文件名和路径。 请注意,这只是一个简单的示例,实际情况可能会更复杂。你可能需要根据目标网站的结构和表格的特点进行适当的修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值