python爬虫——requests.exceptions.InvalidHeader: Invalid return character or leading space in header: co

在使用requests库爬去淘宝时,在登录输入headers参数时,复制user-agent和cookis时多了空格。

headers
{‘cookie’: ’ uab_collina=157258226625083933457665; thw=cn; t=36d1cd24cf0143fb6accdf025534d197; enc=97GhrHhKkErSIlgzQuOf4gDv8yB1IDMrzS%2FqNp8OhQXosfA5%2Bpm6Vj4%2B%2FjCYIIsIglI%2FeakHaMTRg2bsOCGe%2Fg%3D%3D; hng=CN%7Czh-CN%7CCNY%7C156; cna=PpdBFupPaykCAbdAPqcqw59D; v=0; cookie2=121748a20166b93dd684c8261dc86eb6; tb_token=f5bfe803ea637; XSRF-TOKEN=bff8aff9-5855-462d-a51f-99327ffa22e9; unb=895641240; uc3=nk2=Dko1KHWW&lg2=V32FPkk%2Fw0dUvg%3D%3D&id2=W8CIr%2FInTwtU&vt3=F8dBxdrNehCzWbX4PiU%3D; log=lty=Ug%3D%3D; csg=ca96291a; lgc=mzl990; cookie17=W8CIr%2FInTwtU; dnk=mzl990; skt=3c7a061320213fc1; existShop=MTU3OTU5ODE3Ng%3D%3D; uc4=id4=0%40WeNSQi8PrsoaiTXNzq3tCtfo1AA%3D&nk4=0%40DC%2BBCTLI5cN5BWGCg1N66fI%3D; publishItemObj=Ng%3D%3D; tracknick=mzl990; lc=Vyu4NkM3MhOuOyU%3D; cc=VFC%2FuZ9ajQ%3D%3D; lid=mzl990; tg=0; l_g=Ug%3D%3D; sg=008; nk=mzl990; cookie1=URmpRRlcewZgBX8x0WMItvw16nPjfGq5qrfiOwYV25E%3D; uc1=cookie16=Vq8l%2BKCLySLZMFWHxqs8fwqnEw%3D%3D&cookie21=WqG3DMC9Fbxq&cookie15=W5iHLLyFOGW7aA%3D%3D&existShop=false&pas=0&cookie14=UoTblALr4qh4Kw%3D%3D&cart_m=0&tag=8&lng=zh_CN; mt=ci=60_1; cookieCheck=54115; isg=BD09yDFsP3oon5sS1iGFb0SYTJA32nEsVjpWJ-CeRTDNl1oxyqB_Avm5GpwrYnk; l=cBSUpxagQxmM5G2EBOCanurza77OSIRYYuPzaNbMi_5Ce6T1e4_Oo0-5vF96VjWd9n8B4-ERe5p9-eteN8tZLSSpXUJ1.’, ‘user-agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 Safari/537.36’}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: 看起来您正在使用 Pythonrequests 库发起 HTTP 请求时遇到了一个异常,提示为 "requests.exceptions.invalidheader: invalid return character or leading space in header: user-agent"。 这个异常通常表示您在请求头中的 User-Agent 字段中使用了无效的字符,可能是一些不可见的字符,例如回车符或空格。HTTP 协议规定请求头中的字段必须是 ASCII 字符,因此包含非 ASCII 字符的请求头可能会引起这个异常。 要解决这个问题,您可以尝试检查请求头中的 User-Agent 字段,确保它只包含 ASCII 字符。您可以尝试删除请求头中的所有空格、回车符等不可见字符,或者使用一个合法的 User-Agent 值来替换当前的值。 例如,您可以将 User-Agent 设置为常见的浏览器标识符,例如 "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3",这是 Chrome 浏览器的标识符。您可以将其作为 User-Agent 字段的值来使用: ```python import requests headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get('https://www.example.com', headers=headers) ``` 希望这可以帮助您解决问题! ### 回答2: requests.exceptions.invalidheader: invalid return character or leading space in header: user-agent 是请求时由 requests 模块抛出的一个异常。这种异常通常是由于 HTTP 的请求头信息中出现了不符合规范的字符或空格导致的。 首先需要理解 HTTP 请求头,它是向服务器发送的与 HTTP 请求相关的附加信息,包括浏览器信息、Cookie 信息、用户代理信息、缓存控制信息等,它们通过键值对的方式依次排列,每个键值对之间要用回车和换行符隔开。由于 HTTP 协议规定了请求头信息的格式要求,如果出现了不符合规范的字符或其他错误,就会抛出该异常。 一个常见的原因是在请求头信息中包含了不合法的字符或空格,这些字符可能是因为系统错误使用了不兼容的字符编码或者因为在复制文本时产生了空格符。为了解决这个问题,可以尝试修改请求头信息中的字符,也可以使用其它的 HTTP 请求库。 除此之外,还有一些可能会导致请求头信息异常的情况,如网络问题、服务器响应超时等。在这些情况下,可以尝试重新请求,或者调整请求头信息中的参数,以确保其符合 HTTP 协议的规范。 ### 回答3: 该错误是由于请求报头中"user-agent"的格式不符合标准要求所导致的。 "user-agent"是HTTP请求头中的一个重要部分,它用于标识发送请求的客户端类型。通常情况下,它应该是一个字符串类型的值,并且不能包含不合法的字符,如回车符或前导空格。 当我们发送一个请求时,请求报头中的"user-agent"需要遵循特定的规范。如果"user-agent"的格式不正确,服务器就无法正确解析请求报头,并返回一个"requests.exceptions.invalidheader"异常。 为了解决这个问题,通常需要检查请求报头中"user-agent"的格式是否符合标准要求。如果不符合,可以尝试更换一个合法的"user-agent"值,或者将其格式进行修正。 另外,在编写爬虫程序时,也应该遵循合法的网络爬虫规范,包括设置正确的"user-agent"值,以避免对服务器造成过度的负担,并保护自己的程序不被封禁。 总之,该异常是由于请求报头中"user-agent"格式不正确所导致的,我们可以检查请求报头中"user-agent"的格式是否符合标准要求,并进行相应的修正。同时,在编写爬虫程序时应遵循合法的网络爬虫规范,以确保程序的稳定运行和不被封禁。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值