- 博客(9)
- 收藏
- 关注
原创 用python做有道翻译的接口
from urllib import request,parseimport timeimport randomimport hashlibimport jsondef getSign(kw,salt): md5 = hashlib.md5() content = 'fanyideskweb' + kw + str(salt) + 'ebSeFb%=XZ%T[KZ)...
2018-06-26 21:02:21 386
原创 python做有道翻译接口的时候报UnicodeDecodeError: 'utf-8' codec can't decode byte 0x8b in position 1: invalid sta
当遇到这个错误的时候,解决办法是:headers = { "Host":"fanyi.youdao.com", "Connection":"keep-alive", "Content-Length":"201", "Accept":"application/json, text/javascript, */*; q=0.0
2018-06-26 20:23:05 2116
原创 Python做有道翻译的的时候报http.client.RemoteDisconnected: Remote end closed connection without response
一开始只是加了头部信息,然后运行就报错,后来想着不是不没有加form信息,最后发现果然是这样,form = { "i":"inout", "from":"AUTO", "to":"AUTO", "smartresult":"dict", "client":"fanyi
2018-06-26 20:11:31 5520 2
原创 自动登录人人网的时候报HTTP Error 405: /sysHome的解决方案
研究了好长时间,最后发现是自己路由写错了,一开始写的是base_url = 'http://www.renren.com/'最后才发现这个是由于路由写错了,正确的应该是:base_url = 'http://www.renren.com/PLogin.do' ...
2018-06-22 23:33:52 2325 3
原创 百度搜索借口
from urllib import request,parseheaders = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.79 Safari/537.36'}def baidu(): while...
2018-06-22 08:50:21 375
原创 爬取百度贴吧
可以自由输入贴吧名称以及页数,自动下载页面from urllib import request,parseimport ostieba_name = input('请输入贴吧名称:')start = input('请输入起始页:')end = input('请输入结束页:')base_url = 'https://tieba.baidu.com/f?'search = {...
2018-06-22 00:28:29 173
原创 关于请求头的反爬
from urllib import requestimport randombase_url = 'http://www.xicidaili.com'#构建请求头UA = ['Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.79 Saf...
2018-06-21 21:35:23 706
原创 爬虫
获取页面内容的基本步骤from urllib import request# 第一个要发起请求的url地址base_url = 'http://www.baidu.com'# 打开url,获取响应response = request.urlopen(base_url)# 读取页面内容html = response.read().decode()# print(htm...
2018-06-21 21:24:37 157
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人