python 爬虫报错:Invalid keyword arguments {‘headers‘: XXX, ‘encoding‘: ‘utf-8‘} 已解决

利用pyquery编写的爬虫突然报错:

        Invalid keyword arguments {'headers': {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)......'}, 'encoding': 'utf-8'}

尝试补全headers:无用,报错的信息随着headers的变化而变化,总为 Invalid keyword arguments {'headers': XXX, 'encoding': 'utf-8'},

且其他利用pyquery爬虫的程序可正常运行。

利用print一步一步排查发现,bug为抓取页面的文章链接改版,重新编写爬虫即可。

举个例子:

原来的文章链接列表:

<li><a target="_blank" href="http://blog.eastmoney.com/fengyu1234/blog_1023530625.html">XXX</a></li>
<li><a target="_blank" href="http://blog.eastmoney.com/m4929094142218208/blog_1023527825.html">XXX</a></li>
<li><a target="_blank" href="http://blog.eastmoney.com/m3602094136829916/blog_1023526449.html">XXX</a></li>

现在的文章链接列表:

<li><a target="_blank" href="/fengyu1234/blog_1023530625.html">XXX</a></li>
<li><a target="_blank" href="/m4929094142218208/blog_1023527825.html">XXX</a></li>
<li><a target="_blank" href="/m3602094136829916/blog_1023526449.html">XXX</a></li>

解决bug的方式:拼接下文章链接即可解决。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值