python爬虫初入门(Ⅰ)

1.首先你要down好必要的环境和配置

  1. IDLE(python编译器)
  2. Selenium(浏览器自动化测试框架——就是一个自动的browser来模仿用户上网)
  3. FireFox / Google chrome(browser)
  4. 良好的学习心态

2.Goal

  1. 目标web:http://www.17huo.com/
  2. 关键字:大衣 ?
  3. 爬出关键字下一页所有的商品数量

3.Procedure / Method

# 导入module,如果无法导入就是没有这个module,去cmd中pip install
import time
from selenium import webdriver

# 初始化browser用Chrome浏览器打开
browser = webdriver.Chrome()
# 设置页面load的超时时间30second
browser.set_page_load_timeout(30)

# 打开带关键字大衣的17huo的url(就是打开17huo搜索大衣那个网址)
browser.get('http://www.17huo.com/newsearch/?k=%E5%A4%A7%E8%A1%A3')
# 用一个脚本让整个网站加载完成,因为如果网站是动态加载的不加载完无法爬
browser.execute_script("window.scrollTo(0,document.body.scrollHeight);")
# 为了上一条语句完成,设置sleep
time.sleep(5)


# 从网页源码可以看到每类商品都是一个class book_item_list_box,先定位到它的上一层(一定要是父层),再数每一个class
# 注意:定位是find_element,数class是find_elements,少一个s多一个s都会报错
goods = browser.find_element_by_css_selector('#book_item_list').find_elements_by_class_name('book_item_list_box')
print(len(goods))

  1. 通过检查看源码

  2. 找到定位的css语句
    在这里插入图片描述
    3.找到父层,右键选择COPY,选择copy selector,就可以得到代码中的browser.find_element_by_css_selector(’#book_item_list’)括号中的东西
    在这里插入图片描述

  3. 找到子层
    可以看到子层都是class book_item_list_box’ 得到find_elements_by_class_name(‘book_item_list_box’)
    在这里插入图片描述
    4.Outcome
    得到我们要的商品数量
    在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值