使用Selenium爬取淘宝商品信息

学了点Python基础后,跟着视频学了点爬虫。

此代码是爬取淘宝美食信息并且存储到Mongodb,可以根据输入不同的关键字,爬取各种淘宝商品

爬取的过程中还遇到了一些坑
比如执行borwser = webdriver.Chrome()的时候抛出了Message: ‘chromedriver’ executable needs to be in PATH.Please see …”异常,后来百度了,下载了chromedriver.exe放在pyhton主目录下就OK了
明明是照着视频里老师代码一模一样的执行,却遇到了很多问题,最后经过不懈的百度,最终可以运行并且成功地存储到了Linux系统下的mongodb数据库~
这里写图片描述

代码:
import re
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
from pyquery import PyQuery as pq
import pymongo
from PaChong import config

mongodb连接

client = pymongo.MongoClient(config.MONGO_URL)
db = client[config.MONGO_DB]

加载驱动

borwser = webdriver.Chrome()

如果页面加载缓慢,程序就执行,会报错,等待页面加载完,再执行代码

wait = WebDriverWait(borwser, 10)

搜索方法

def search():
try:
borwser.get(‘https://www.taobao.com‘)
# Presence_of_element_located 元素是否存在
input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, “#q”))) #据选择器得到搜索框
# Element_to_be_clickable 判断元素是否点击,它处于可见和启动状态
submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, “#J_TSearchForm > div.search-button > button”))) #搜索按钮
input.send_keys(config.KEYWORD) #搜索框键入键入文字
submit.click() #点击
totle = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, “#mainsrp-pager > div > div > div > div.total”))) #总页数
#此时是第一页
get_products() #获取商品信息
return totle.text # 然后将页数返回
except Exception:
return search()

def next_page(page_number): #翻页
try:
input = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, “#mainsrp-pager > div > div > div > div.form > input”)) #底部的输入页数的文本框
)
submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, “#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit”))) #底部的输入页数的确定按钮
input.clear() #清除内容
input.send_keys(page_number) #输入页数
submit.click() #点击确认
#点击确认后翻页了,等待页码条加载翻页的页数
wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR, “#mainsrp-pager > div > div > div > ul > li.item.active > span”), str(page_number)))
##获取商品信息
get_products()
except Exception:
next_page(page_number)

def get_products():
wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, “#mainsrp-itemlist .items .item”)))
html = borwser.page_source
doc = pq(html) # 使用PyQuery来解析html
items = doc(“#mainsrp-itemlist .items .item”).items()
for item in items:
product = {
# 去掉价格中的换行符
“price”: item.find(“.price”).text().replace(“\n”, “”),
“image”: item.find(“.pic .img”).attr(“src”),
“name”: item.find(“.title”).text(),
“location”: item.find(“.location”).text(),
“shop”: item.find(“.shop”).text(),
}
print(product)
save_products(product)

def save_products(result):
“”“将商品的信息存储到MongoDB数据库、txt文件中”“”
try:
# 尝试将结果集插入到数据库中
if db[config.MONGO_TABLE].insert(result):
print(“存储到MongoDB数据库成功!”, result)
except Exception:
print(Exception)
print(“存储失败!”, result)

def main():
try:
total = search()
total = int(re.compile(‘(\d+)’).search(total).group(1))
for i in range(2,total + 1):
print(‘——————————第’+str(i)+’页—————————————’)
next_page(i)
except Exception:
print(‘出错啦’)
#执行完后关闭浏览器
borwser.close()

if name == ‘main‘:
main()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值