爬取西刺代理的免费IP

背景

  • 出于爬取其他项目的需求,爬取点代理ip存成文本文件,随机取一个简单验证,方便自己其他代码里面调用。

环境

  • win10, python 3.6, pycharm

干货

import requests
from bs4 import BeautifulSoup
import time
import random

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36'}

def xici_ip(page):
    for num_page in range(1,page+1):
        url_part = "http://www.xicidaili.com/wn/" # 爬取西刺代理的IP,此处选的是国内https
        url = url_part + str(num_page)  # 构建爬取的页面URL
        r = requests.get(url, headers=headers)
        if r.status_code == 200:
            soup = BeautifulSoup(r.text,'lxml')
            trs = soup.find_all('tr')
            for i in range(1,len(trs)):
                tr = trs[i]
                tds = tr.find_all('td')
                ip_item = tds[1].text + ':' + tds[2].text
                # print('抓取第'+ str(page) + '页第' + str(i) +'个:' + ip_item)
                with open(r'路径\get_xici_ip.txt', 'a', encoding='utf-8') as f:
                    f.writelines(ip_item + '\n')
                # time.sleep(1)
            return ('存储成功')

def get_ip():
    with open(r'路径\get_xici_ip.txt', 'r', encoding='utf-8') as f:
        lines = f.readlines()
        return random.choice(lines)

def check_ip():
    proxies = {'HTTPS': 'HTTPS://' + get_ip().replace('\n', '')}
    try:
        r = requests.get('http://httpbin.org/ip', headers=headers, proxies=proxies, timeout=10)
        if r.status_code == 200:
            return proxies
    except Exception as e:
        print(e)

def main():
    xici_ip(1) # 抓取第一页,一页100个url
    try:
        return check_ip()
    except Exception as e:
        print(e)
        check_ip()

if __name__ == '__main__':
    main()

参考

End

走过路过,有任何问题,请不吝赐教。

  • 4
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
我可以告诉你如何使用代理IP爬取豆瓣电影网,但请注意这可能涉及到一些法律和道德问题,因此请确保你有合法的许可和良好的意图。 首先,你需要获取一些代理IP地址,你可以从一些付费的代理商那里购买,也可以使用一些免费代理网站。 然后,你需要使用编程语言例如Python来编写爬虫程序。在程序中,你需要设置代理IP地址,使得每次请求都会使用不同的IP地址。 具体来说,你可以使用Python的requests库来发送HTTP请求,并在请求头中设置代理IP地址。以下是一个简单的示例代码: ```python import requests # 代理IP地址 proxies = { 'http': 'http://127.0.0.1:8080', 'https': 'https://127.0.0.1:8080', } # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36' } # 发送请求 response = requests.get('https://movie.douban.com/', headers=headers, proxies=proxies) # 输出响应内容 print(response.text) ``` 在这个示例代码中,我们使用了一个代理IP地址 `http://127.0.0.1:8080`,并将其设置为HTTP和HTTPS协议的代理。我们还设置了一个请求头,以伪装成一个浏览器发送请求。最后,我们使用requests库发送HTTP请求,并输出响应内容。 请注意,使用代理IP爬取网站可能会遇到一些问题,例如代理IP可能不稳定,可能会被网站封禁等等。因此,你需要小心使用,并确保你的行为合法和道德。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值