爬虫之selenium自动化爬取

准备工具
1谷歌浏览器驱动器,PhantomJS
2 selenium模块的下载
pip install selenium
代码

# 1. 导入webdriver
import time

from selenium import webdriver
from selenium.webdriver.common.keys import Keys

# 2. 调用浏览器
driver = webdriver.PhantomJS(executable_path=r'D:\phantomjs-2.1.1-windows\bin\phantomjs.exe')

# 3. 访问页面
driver.get(url='https://www.baidu.com')

4. 属性及方法
4.1 title   获取标题
print(driver.title)


4.2 page_source  查看页面内容
print(driver.page_source)


4.3 current_url  查看当前访问的URL
print(driver.current_url)


4.4 get_cookies()  获取所有cookie
print(driver.get_cookies())


4.5 查找元素
4.5.1 find_element_by_id('id值')   根据id查找元素
id_kw = driver.find_element_by_id('kw')
print(id_kw)   # <selenium.webdriver.remote.webelement.WebElement (session="f02f9dc0-175a-11eb-81af-e70b2a3c374f", element=":wdc:1603696491796")>



4.5.2 find_elements_by_class_name('class的值')  根据class查找元素,返回所有符合class值的元素列表
find_element_by_class_name('class的值')  根据class查找元素,返回第一个符合class值的元素

class_s_ipt = driver.find_elements_by_class_name('s_ipt')  # [<selenium.webdriver.remote.webelement.WebElement (session="39e31be0-175b-11eb-98f9-630d2f7103e0", element=":wdc:1603696615403")>]
class_s_ipt = driver.find_element_by_class_name('s_ipt')  # <selenium.webdriver.remote.webelement.WebElement (session="5e5343b0-175b-11eb-b75c-4bbbce594c75", element=":wdc:1603696676575")>
print(class_s_ipt)


4.5.3 find_element_by_name('name属性值')  根据name属性查找元素
find_elements_by_name('name属性值')  根据name属性查找元素
区别和className一样
name_wd = driver.find_element_by_name('wd')
print(name_wd)  # <selenium.webdriver.remote.webelement.WebElement (session="dec223e0-175b-11eb-aa94-074d9ecfbe36", element=":wdc:1603696892022")>


4.5.4 find_element_by_xpath('xpath的路径')根据xpath查找元素
kw_xpath = driver.find_element_by_xpath('//input[@id="kw"]')
print(kw_xpath)



4.6 text   获取标签之间的内容
content = driver.find_element_by_xpath('//div[@id="s-top-left"]/text()')  # 不支持
content = driver.find_element_by_xpath('//div[@id="s-top-left"]').text  # 支持
print(content)


4.7  get_attribute('属性名')   获取对应属性值
先找到元素,再获取属性值
result = driver.find_element_by_xpath('//input[@id="kw"]').get_attribute('class')
print(result)  # s_ipt


4.8 save_screenshot()  截图
driver.save_screenshot('baidu.png')


4.9  send_keys('输入的内容')
先找到输入框,再输入内容
driver.find_element_by_xpath('//input[@id="kw"]').send_keys('金所炫')
driver.save_screenshot('金所炫.png')


4.10  click()  点击
driver.find_element_by_xpath('//input[@id="kw"]').send_keys('金所炫')
driver.find_element_by_id('su').click()
点击之后,直接截图
原因:截图太快,页面响应需要时间,需要休眠一会儿再截图
time.sleep(1)
driver.save_screenshot('点击.png')


# 4.11 支持快捷键
# 例如:全选和剪切
driver.find_element_by_xpath('//input[@id="kw"]').send_keys('金所炫')
driver.save_screenshot('输入.png')
driver.find_element_by_xpath('//input[@id="kw"]').send_keys(Keys.CONTROL,'a')
driver.save_screenshot('全选.png')
driver.find_element_by_xpath('//input[@id="kw"]').send_keys(Keys.CONTROL,'x')
driver.save_screenshot('剪切.png')


使用 Selenium 自动化爬取淘宝商品详情数据可以分为以下步骤: 1. 安装 Selenium 和浏览器驱动:SeleniumPython 中用于自动化 Web 浏览器的库,需要安装;同时需要下载对应浏览器的驱动程序,如 ChromeDriver。 2. 打开浏览器并访问淘宝网站:使用 Selenium 打开指定的浏览器并访问淘宝网站。 3. 搜索关键字并获取搜索结果:在搜索框中输入关键字并点击搜索按钮,等待搜索结果加载出来,使用 Selenium 获取搜索结果页面的 HTML 代码。 4. 解析搜索结果页面:使用 BeautifulSoup 解析搜索结果页面,获取每个商品的链接。 5. 进入商品详情页面并获取数据:遍历每个商品的链接,使用 Selenium 进入商品详情页面并获取需要的数据,如商品标题、价格、评论数、销量等。 6. 存储数据:将获取到的数据存储到数据库或文件中。 下面是一个示例代码: ```python from selenium import webdriver from bs4 import BeautifulSoup import time # 设置浏览器驱动路径 driver_path = './chromedriver.exe' # 创建浏览器对象 browser = webdriver.Chrome(driver_path) # 设置搜索关键字 keyword = '手机' # 访问淘宝网站 browser.get('https://www.taobao.com/') # 等待页面加载完成 time.sleep(3) # 找到搜索框并输入关键字 browser.find_element_by_name('q').send_keys(keyword) # 点击搜索按钮 browser.find_element_by_class_name('btn-search').click() # 等待搜索结果加载完成 time.sleep(5) # 获取搜索结果页面的 HTML 代码 html = browser.page_source # 使用 BeautifulSoup 解析搜索结果页面 soup = BeautifulSoup(html, 'html.parser') # 获取所有商品的链接 links = [] for item in soup.find_all('a', class_='J_ClickStat'): link = item.get('href') if link.startswith('https://'): links.append(link) # 遍历每个商品的链接并获取数据 for link in links: # 进入商品详情页面 browser.get(link) # 等待页面加载完成 time.sleep(3) # 获取商品标题 title = browser.find_element_by_xpath('//h3[@class="tb-main-title"]/text()') # 获取商品价格 price = browser.find_element_by_xpath('//div[@class="tb-property-cont"]/div[@class="tb-detail-price"]/span[@class="tb-price"]/text()') # 获取商品评论数 comment_count = browser.find_element_by_xpath('//div[@class="tb-rate-counter"]/span[@class="tm-count"]/text()') # 获取商品销量 sales_volume = browser.find_element_by_xpath('//div[@class="tb-sales-counter"]/span[@class="tm-count"]/text()') # 打印商品信息 print('标题:', title) print('价格:', price) print('评论数:', comment_count) print('销量:', sales_volume) # 关闭浏览器 browser.quit() ``` 需要注意的是,使用自动化爬取数据容易被网站识别为机器行为,可以添加一些随机等待时间、请求头伪装等方式来降低被识别的概率。同时,爬取数据时也需要遵守网站的爬虫规则,如不过度频繁访问、不采集敏感信息等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值