利用python爬取淘宝的商品图片

代码

from selenium import webdriver
from selenium.webdriver.common import keys
import time
import requests
import random


# 创建浏览器
def functions():
    browser = webdriver.Chrome(r'G:\taobao\chromedriver.exe')
    # 让浏览器打开淘宝
    browser.get("https://www.taobao.com/")

    # 找到搜索框输入内容并搜索
    browser.find_element_by_xpath('//*[@id="q"]').send_keys("便携果汁杯", keys.Keys.ENTER)
    time.sleep(1)
    # 切换成二维码登录
    browser.find_element_by_xpath('//*[@id="login"]/div[1]/i').click()

    # 判断当前页面是否为登录页面
    while browser.current_url.startswith("https://login.taobao.com/"):
        print("等待用户输入")
        time.sleep(1)

    print("登录成功!!!")
    n = 1
    count = 1

    while True:
        items = browser.find_elements_by_css_selector('.m-itemlist .items > div')
        for item in items:
            # 获取这张图片的下载地址
            img = item.find_element_by_css_selector(".pic-box .pic img").get_attribute("data-src")
            # 拼接完成的下载地址
            img_url = "http:" + img
            # print(img_url)
            # 通过requests下载这张图片
            sleep_time = random.random()*10
            time.sleep(sleep_time)
            # 文件夹需要手动创建好
            file = open(f"G:\\果汁杯-淘宝\\{n}.jpg", "wb")
            file.write(requests.get(img_url).content)
            print("下载图片" + str(n))
            n += 1

        # 翻页操作
        browser.find_element_by_css_selector('.wraper:nth-last-child(1) .next > a').click()
        time.sleep(2)
        count += 1
        # 爬取 4 页内容
        if count == 6:
            # file.close()
            break

    # 关闭浏览器
    browser.quit()


if __name__ == '__main__':
    functions()

下载Chromedriver

淘宝本身是有反爬虫机制的,需要使用到浏览器进行模拟人工爬取数据。
下载地址:http://npm.taobao.org/mirrors/chromedriver/86.0.4240.22/
在这里插入图片描述
在这里插入图片描述

将下载好的压缩包解压到你想要的某个文件夹中,并替换掉一下路径即可
在这里插入图片描述
之后运行脚本即可

原参考网址

  • 8
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
Python虫可以通过网络请求抓取淘宝商品信息,这里假设使用requests和BeautifulSoup库实现。首先,我们需要导入所需的库: ``` import requests from bs4 import BeautifulSoup ``` 然后,我们可以定义一个函数来获取淘宝商品信息: ``` def crawl_taobao(keyword): url = 'https://search.taobao.com/search?q=' + keyword headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } # 模拟浏览器访问 response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') items = soup.select('.J_MouserOnverReq') for item in items: title = item.select('.J_ClickStat')[0].text price = item.select('.price')[0].text shop = item.select('.shop')[0].text.strip() print('商品名称:', title) print('商品价格:', price) print('商品店铺:', shop) print('----------------------') # 使用示例 crawl_taobao('手机') ``` 上述代码中,我们首先构建了淘宝搜索的URL,然后发送请求并获取响应。接着,利用BeautifulSoup解析页面内容,找到商品的名称、价格和店铺信息,并进行打印输出。 需要注意的是,为了模拟浏览器的请求,我们设置了较为完整的User-Agent,这样可以避免遭到反虫的屏蔽。 执行上述代码,即可实现通过Python爬取淘宝商品信息。当然,更复杂的操作和数据处理都可以在上述代码的基础上进行拓展和优化。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值