tao_bao.py

  1. from selenium import webdriver
  2. from bs4 import BeautifulSoup
  3. import time
  4. import random
  5. driver = webdriver.Chrome()
  6. driver.maximize_window()
  7.  
  8. def get_info(url,page):
  9.     """
  10.     获取商品信息并保存到phone_honor.txt文件中
  11.     :param url: 商品信息的网址
  12.     :return: 返回列表infos,元素为字典:价格、付款人数、商品名称、商铺名称、位置
  13.     """
  14.     try:
  15.         print("正在获取第%d页信息"%page)
  16.         page += 1
  17.         driver.get(url)
  18.         driver.implicitly_wait(10)
  19.         html = driver.page_source
  20.         soup = BeautifulSoup(html,"html.parser")
  21.         # items是所有的商品的HTML列表
  22.         items = soup.find('div',{'class':'m-itemlist'}).find_all('div',{'data-category':'auctions'})
  23.         # 循环遍历items得到每一件商品item的信息
  24.         for item in items:
  25.             info = {
  26.                 'price':item.find('div',{'class':'price g_price g_price-highlight'}).get_text().strip(),
  27.                 'payment_number':item.find('div',{'class':'deal-cnt'}).get_text().strip(),
  28.                 'good_name':item.find('div',{'class':'row row-2 title'}).get_text().strip(),
  29.                 'shop':item.find('div',{'class':'shop'}).get_text().strip(),
  30.                 'location':item.find('div',{'class':'location'}).get_text(),
  31.             }
  32.             with open('./phone_honor.txt','a',encoding='utf-8') as f:
  33.                 f.write(info['price']+","+info['payment_number']+","+info['good_name']+","+info['shop']+","+info['location']+"\n")
  34.         print("写入文件成功!")
  35.         if page <= 100:
  36.             next_page(url,page)
  37.         else:
  38.             print("爬取任务结束!!!")
  39.     except Exception as e:
  40.         print("error:",e)
  41.         get_info(url,page)
  42.  
  43. def next_page(url,page):
  44.     driver.get(url)
  45.     driver.implicitly_wait(10)
  46.     driver.find_element_by_xpath('//a[@trace="srp_bottom_pagedown"]').click()
  47.     # 休息0~10秒
  48.     second = 10*random.random()
  49.     time.sleep(second)
  50.     driver.get(driver.current_url)
  51.     driver.implicitly_wait(10)
  52.     get_info(driver.current_url,page)
  53.  
  54. # 测试用的主函数
  55. if __name__ == '__main__':
  56.     page = 1
  57.     # 模拟浏览器进行搜索荣耀10手机
  58.     url = "https://www.taobao.com/"
  59.     name = "荣耀10"
  60.     driver.get(url)
  61.     driver.implicitly_wait(10)
  62.     # 模拟人输入商品名称
  63.     driver.find_element_by_id("q").clear()
  64.     driver.find_element_by_id("q").send_keys(name)
  65.     # 点击搜索按钮
  66.     driver.find_element_by_xpath('//*[@id="J_TSearchForm"]/div[1]/button').click()
  67.     # 将当前网页传入get_info函数中
  68.     get_info(driver.current_url,page

代码分析:

1)第1~4行导入程序所需要的库,selenium库用于模拟浏览器,bs4用于获取网页中共需要的数据,timerandom用于设置程序的休息时间。

2)第6~7行加载谷歌驱动。

3)第10~44行获取商品信息并保存到phone_honor.txt文件中

4)第47~56行定义翻页函数

5)第6073行,测试用的主函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

帅帅的Python

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值