爬取各种网站的数据信息时,,需自动打开浏览器时,用到包(selenium):
selenium 可以用来自动操作浏览器的包,也可以用来做爬虫
此包准备工作:1:下载火狐浏览器53.0.3版本 设置不更新
2:将chromedriver.exe和geckodriver.exe拉入python35(即自己配置的python路径)下的Scripts
'''
windows + r 打开命令行工具 输入 pip install selenium 回车
selenium 可以用来自动操作浏览器的包,也可以用来做爬虫
# 引入time模块
import time
# 从selenium引入webdriver
from selenium import webdriver
# 创建浏览器对象,会自动打开浏览器
driver = webdriver.Firefox()
# 打开网址
driver.get('http://www.baidu.com')
# 根据id找到html中的输入框标签
input_kw = driver.find_element_by_id('kw')
# 向输入框中输入要搜索的内容
input_kw.send_keys('python')
# 找到百度一下的按钮
button = driver.find_element_by_id('su')
# 单击按钮
button.click()
# 休眠
time.sleep(5)
# 退出浏览器
driver.quit()
driver = webdriver.Firefox()
driver.get('http://www.baidu.com')
# 通过html标签中的class属性值查找标签
# driver.find_element_by_class_name()
# 通过超链接的文本内容查找标签
link = driver.find_element_by_link_text('新闻')
# 通过 标签名[属性名=“属性值”]
# 通过css样式选择器
driver.find_element_by_css_selector('button[type="submit"]')
link.click()