python 利用爬虫获取页面上下拉框里的所有国家

前段时间,领导说列一下某页面上的所有国家信息,话说这个国家下拉框里的国家有两三百个,是第三方模块导入的,手动从页面拷贝,不切实际,于是想着用爬虫去获取这个国家信息,并保存到文件里。

下面是具体的代码,写的也是比较简单,

第一种:利用Selenium操作页面,获取下拉国家列表的信息,并保存到文件里

from selenium import webdriver
import xlwt
driver = webdriver.Chrome('C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe')
driver.get('https://xxx.xx.com/contact')
countries = driver.find_element_by_id('country')#获取country dropdownlist
options_list = countries.find_elements_by_tag_name('option')
options = []
for option in options_list: #获取country dropdownlist里所有的数据
    options.append(option.text)
with open('country_list.txt','w+', encoding='utf-8') as f:
    for i in options:
        if i != 'Select your country':
            f.write(i+'\n')
driver.quit()

 第二种:利用pyquery

from pyquery import PyQuery as pq
doc = pq('https://xxx/contact')
countries = doc('select')('#country').text()
with open('country_list.txt','w+', encoding='utf-8') as f:
    f.write(countries)

发现用Pyquery实现更加的简单,一句 countries = doc('select')('#country').text() 就搞定了。

 

转载于:https://www.cnblogs.com/nancyzhu/p/8449668.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值