可能是最全的User-Agent列表

User-Aagent String这个网站收集了爬虫、浏览器、主机、邮件客户端等客户端的请求头的UA字段。其中浏览器的UA头有将近10000个。但是访问这个网站很慢。

http://useragentstring.com/pages/useragentstring.php

把浏览器的所有UA头下载下来,字符串长度小于80的丢弃,存成csv文件,得到6244条:

# -*- coding: utf-8 -*-

import requests
import pandas as pd
from lxml import etree

url = 'http://useragentstring.com/pages/useragentstring.php?typ=Browser'

header = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
        'User-Agent': 'Mozilla/5.0 (compatible; ABrowse 0.4; Syllable)'
    }

response = requests.get(url,
                        headers=header,
                        timeout=60
          
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: User-Agent 是 HTTP 协议中的一个请求头字段,用来代表发出请求的客户端的信息。反爬虫技术中的 User-Agent 反爬就是指网站在收到请求时,会先判断请求头中的 User-Agent 字段是否属于合法的浏览器信息。如果不是,则认为是爬虫可能会拒绝或限制访问。 这种技术常常被用于防止网站被爬虫抓取内容,或者防止恶意攻击。但是,由于 User-Agent 可以被伪造,所以这种技术并不能完全有效地防止爬虫。 ### 回答2: User-Agent反爬(User-Agent Anti-Crawler)是指在网络爬虫程序访问网页时,网站会根据请求中的User-Agent字段的值来判断该请求是否来自合法的浏览器或爬虫程序。当User-Agent字段的值与合法浏览器的User-Agent不一致时,网站可能会将该请求视为恶意爬虫请求并进行拦截或限制访问。 User-Agent字段是HTTP请求头部的一部分,用于标识发起请求的客户端。一般情况下,浏览器会在发送请求时自动设置User-Agent字段,将浏览器的类型、版本等信息发送到被请求的网站。然而,一些网络爬虫程序可能会伪造User-Agent字段,将其设置为与合法浏览器不一致的值。 为了应对User-Agent反爬措施,网络爬虫程序可以通过设置合法的User-Agent字段来模拟浏览器的行为,以便顺利获取所需数据。这样的设置可以包括真实的浏览器User-Agent字段值,或者使用一些被广泛接受的爬虫User-Agent字段值,以蒙混过关。 除了User-Agent反爬,网站还可以采取其他防爬措施,如验证码、IP封禁、用户行为分析等。对于网络爬虫程序而言,除了设置合适的User-Agent外,还需要注意合理设置爬取频率,避免给网站造成过大的负荷和干扰正常用户的访问。 总之,User-Agent反爬是一种网站针对爬虫程序做出的识别与拦截机制,通过判断User-Agent字段的值来区分浏览器和爬虫,并对请求进行限制。为了克服这种反爬措施,爬虫程序可以设置合理的User-Agent字段以模拟浏览器行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值