selenium使用代理ip之后无法访问

最近在写爬虫时,使用selenium时遇到一个问题,不使用代理时是可以访问,可以抓取到数据的,使用代理ip之后无法加载网页,

代码如上,使用代理之后就无法访问网页,查了很多资料,都是说'--proxy-server=http://' + self.proxy将"--"换成'-',还有的说的ip和port之间的':'切换成中的':',切换为中文之后确实是可以访问,但是这是错的,

ip还是本机IP,没有使用代理,后来各种调试,终于搞定,'--proxy-server=http://' + self.proxy修改为'--proxy-server=' + self.proxy即可,前面的http://会自动补全,不需要添加,修改后的代码如下:

# -*- coding: utf-8 -*-
import time
import random
from selenium import webdriver


class SetProxyModel():
    test_url = "http://httpbin.org/ip"

    def __init__(self):
        self.options = webdriver.ChromeOptions()
        self.options.add_argument(
            'user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36"')
        # 设置代理
        self.proxy = '125.87.104.255:22015'
        self.options.add_argument('--proxy-server=' + self.proxy)
        self.driver = webdriver.Chrome(
            executable_path=r'C:\Users\asus\Envs\lawyer\Lib\site-packages\selenium\webdriver\chrome\chromedriver.exe',
            options=self.options)
        self.driver.maximize_window()

    def set_proxy(self):
        self.driver.get(self.test_url)
        time.sleep(random.randint(2, 5))
        print(self.driver.page_source)
        cookies = self.driver.get_cookies()
        print(cookies)

    def close(self):
        time.sleep(5)
        self.driver.close()

if __name__ == '__main__':
    sp = SetProxyModel()
    sp.set_proxy()
    time.sleep(random.randint(3,5))
    sp.close()

运行结果如下:

 

 

  • 5
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 19
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值