学习使用selenuim库来爬取百度疫情模块

这次我们来学习使用selenuim库来爬取百度疫情模块下的今日热点:

这是要爬取的网站:

https://voice.baidu.com/act/newpneumonia/newpneumonia#tab1

我们先安装selinium库

在命令行下输入pip install  selinium进行安装

然后

    http://chromedriver.storage.googleapis.com/index.html

这个网站下载相对应的chrome的驱动。

接下来引入库

    from selenium.webdriver import Chrome, ChromeOptions
    import time

分析网站的数据结构我们可以得到要获取对应数据的xpath的表达式

'//*[@id="ptab-1"]/div[3]/div/div[2]'

数据就可以获得了

 代码如下

    option = ChromeOptions()
        # 无头模式
        option.add_argument("--headless")
        # Linux部署
        option.add_argument("--no-sandbox")
        browser = Chrome(r"D:\note\chromedriver", options=option)
        browser.get("https://voice.baidu.com/act/newpneumonia/newpneumonia#tab1")
        # print(browser.page_source)
        but = browser.find_element_by_css_selector('#ptab-1 > div.Virus_1-1-318_2SKAfr > div.Common_1-1-318_3lDRV2')
        but.click()
        time.sleep(1)
        source = browser.find_elements_by_xpath('//*[@id="ptab-1"]/div[3]/div/div[2]')
        list = []
        for i in source:
            list.append(i.text)
     
        print(list)
 

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值