爬虫selenium+BeautifulSoup组合

selenium+BeautifulSoup组合(自动翻页爬取)

使用selenium获取网页,然后交给BeautifulSoup解析和提取。

一、selenium

1.selenium安装

pip install selenium # Windows电脑安装selenium

2.设置浏览器引擎
根据自己的浏览器版本下载Chrome的安装包
下载地址https://registry.npmmirror.com/binary.html?path=chromedriver/

from selenium import  webdriver
driver = webdriver.Chrome() 

二、 BeautifulSoup

from bs4 import BeautifulSoup

三、项目构建

1.打开网页,并手动登录账号
driver.get('https://**********') 
time.sleep(20)##在此期间等待页面加载并输入账号密码
2. 翻页爬取

111111111111111111111
如上图,网页有一个输入页面的文本框,可以用循环代码实现自动填入页码值并翻页的功能:

for i in range(1,1000):##表示查询1~999页
    button=driver.find_element_by_name('nowpage')
    button.clear()
    button.send_keys(i)
    button=driver.find_element_by_class_name('bt')
    button.click()
    time.sleep(2)
    pageSource = driver.page_source # 获取完整渲染的网页源代码
    soup = BeautifulSoup(pageSource,'html.parser')
    comments1 = soup.find_all(class_='linem')
    for comment1 in comments1:
       print(comment1.text)
3.关闭浏览器

driver.close()

四、selenium提取数据的方法

find_element_by_tag_name:通过元素的名称选择
find_element_by_class_name:通过元素的class属性选择
find_element_by_id:通过元素的id选择
find_element_by_name:通过元素的name属性选择
find_element_by_link_text:通过链接文本获取超链接
find_element_by_partial_link_text:通过链接的部分文本获取超链接

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值