python爬虫第七章:(1)selenium简介

selenium简介

  • 需求:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据,网站(http://scxk.nmpa.gov.cn:81/xk/)

selenium实例化

from selenium import webdriver
#实例化一个浏览器对象(传入浏览器的驱动成)
bro=webdriver.Chrome(executable_path='./chromedriver')
#让浏览器发起一个指定url对应请求
bro.get('http://scxk.nmpa.gov.cn:81/xk/')   #执行之后自动打开这个表网页
#page_source获取浏览器当前页面的页面源码数据
page_text=bro.page_source       #这里获取的动态的页面代码
#解析企业名称
tree=etree.HTML(page_text)

selenium模块的基本使用

问题:selenium模块和爬虫之间具有怎样的关联?

  • 便捷的获取网站中动态加载的数据
  • 便捷实现模拟登录

什么是selenium模块?

  • 基于浏览器自动化的一个模块。

selenium使用流程:

  • 环境安装:pip install selenium

  • 下载一个浏览器的驱动程序(谷歌浏览器)

    • 下载路径:http://chromedriver.storage.googleapis.com/index.html

    • 淘宝下载路径:http://npm.taobao.org/mirrors/chromedriver/

    • 驱动程序和浏览器的映射关系:http://blog.csdn.net/huilan_same/article/details/51896672

浏览器版本,
在这里插入图片描述
对应的
在这里插入图片描述
下载解压后,把里面的chromedriver 在放到pycharm里

在这里插入图片描述
在这里插入图片描述

  • 实例化一个浏览器对象

    from selenium import webdriver
    
    #实例化一个浏览器对象(传入浏览器的驱动成)
    webdriver.Chrome(executable_path='./chromedriver')
    
  • 编写基于浏览器自动化的操作代码

    • 发起请求:get(url)

      #让浏览器发起一个指定url对应请求
      bro.get('http://scxk.nmpa.gov.cn:81/xk/')   #执行之后自动打开这个表网页
      
      #page_source获取浏览器当前页面的页面源码数据
      page_text=bro.page_source       #这里获取的动态的页面代码
      
      #解析企业名称
      tree=etree.HTML(page_text)
      
      
    • 标签定位:find系列的方法

    • 标签交互:send_keys(‘xxx’)

    • 执行js程序:excute_script(‘jsCode’)

    • 前进,后退:back(),forward()

    • 关闭浏览器:quit()

编写基于浏览器自动化的操作代码:

from selenium import webdriver
from lxml import etree
from time import sleep


bro=webdriver.Chrome(executable_path='./chromedriver')
bro.get('https://www.taobao.com/')

# page_text=bro.page_source
# #数据解析
# tree=etree.HTML(page_text)

#标签定位
search_input=bro.find_element_by_id('q')
#标签交互
search_input.send_keys('Iphone')

#执行一组js程序
bro.execute_script('window.scrollTo(0,document.body.scrollHeight)') #x向下滚动一平幕
sleep(2)

#点击搜索按钮
btn=bro.find_element_by_css_selector('.btn-search')  #这里填写的是class的属性值
btn.click()


bro.get('https://www.baidu.com/')
sleep(2)
#回退
bro.back()
sleep(2)
#前进
bro.forward()


sleep(5)
bro.quit()

selenium使用样例:

#http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?id=af4832c505b749dea76e22a193f873c6
#http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?id=a17b1a0ba1f44ae98699be82f69ff032

from selenium import webdriver
from lxml import etree
from time import sleep
#实例化一个浏览器对象(传入浏览器的驱动成)
bro=webdriver.Chrome(executable_path='./chromedriver')

#让浏览器发起一个指定url对应请求
bro.get('http://scxk.nmpa.gov.cn:81/xk/')   #执行之后自动打开这个表网页

#page_source获取浏览器当前页面的页面源码数据
page_text=bro.page_source       #这里获取的动态的页面代码

#解析企业名称
tree=etree.HTML(page_text)

li_list=tree.xpath('//ul[@id="gzlist"]/li')

for li in li_list:
    name=li.xpath('./dl/@title')[0]
    post_url=li.xpath('./dl/a/@href')[0]
    # print(name)
    # print(post_url)
    # bro.get(post_url)
    # page=bro.page_source
    # tr=etree.HTML(page)
    # today_list=tr.xpath('/html/body/div[4]/table/tbody/tr')
    # #print(today_list)
    # for t in today_list:
    #     name=t.xpath('./td[1]/text()')
    #     #name1 = t.xpath('/td[@id="epsName"]/text()')
    #     print(name)

sleep(5)    #代表停留5秒,再继续
bro.quit()
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python 爬虫常用的第三方库有很多,以下是其中比较常用的一些: 1. requests:用来发送 HTTP/1.1 请求,可以模拟浏览器向网站发送请求并获取响应。使用简单,功能强大,支持 HTTP/HTTPS 协议。 2. BeautifulSoup:用来解析 HTML/XML 文档,可以快速从网页中提取所需的信息。使用简单,支持多种解析器。 3. Scrapy:一个基于 Python 的开源网络爬虫框架,可以用来抓取网页、提取数据、处理数据等。功能强大,支持分布式爬取。 4. Selenium:用于自动化测试和网页爬取的工具,可以模拟浏览器操作,获取动态生成的内容。支持多种浏览器,可以通过插件扩展功能。 5. PyQuery:是 jQuery 库的 Python 实现,可以用来解析 HTML/XML 文档,并使用类似 jQuery 的语法来查询和操作文档中的元素。 6. Pymongo:是 MongoDB 的 Python 驱动程序,可以用来连接 MongoDB 数据库,并进行数据的读写操作。 7. Pillow:Python 图像处理库,可以用来打开、创建、保存各种图像文件,并进行图像处理、编辑等操作。 8. Pytesseract:是 Google 开发的 OCR(Optical Character Recognition)引擎,可以用来识别图片中的文字。 9. Pandas:Python 数据分析库,可以用来处理和分析各种数据,支持数据清洗、转换、合并、分组、统计等操作。 以上是常用的一些 Python 爬虫第三方库,具体使用需要根据自己的需求选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值