- 博客(9)
- 收藏
- 关注
原创 用python做有道翻译的接口
from urllib import request,parse import time import random import hashlib import json def getSign(kw,salt): md5 = hashlib.md5() content = 'fanyideskweb' + kw + str(salt) + 'ebSeFb%=XZ%T[KZ)...
2018-06-26 21:02:21 389
原创 python做有道翻译接口的时候报UnicodeDecodeError: 'utf-8' codec can't decode byte 0x8b in position 1: invalid sta
当遇到这个错误的时候,解决办法是: headers = { "Host":"fanyi.youdao.com", "Connection":"keep-alive", "Content-Length":"201", "Accept":"application/json, text/javascript, */*; q=0.0
2018-06-26 20:23:05 2116
原创 Python做有道翻译的的时候报http.client.RemoteDisconnected: Remote end closed connection without response
一开始只是加了头部信息,然后运行就报错, 后来想着不是不没有加form信息,最后发现果然是这样, form = { "i":"inout", "from":"AUTO", "to":"AUTO", "smartresult":"dict", "client":"fanyi
2018-06-26 20:11:31 5521 2
原创 自动登录人人网的时候报HTTP Error 405: /sysHome的解决方案
研究了好长时间,最后发现是自己路由写错了,一开始写的是 base_url = 'http://www.renren.com/' 最后才发现这个是由于路由写错了,正确的应该是: base_url = 'http://www.renren.com/PLogin.do' ...
2018-06-22 23:33:52 2326 3
原创 百度搜索借口
from urllib import request,parse headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.79 Safari/537.36' } def baidu(): while...
2018-06-22 08:50:21 375
原创 爬取百度贴吧
可以自由输入贴吧名称以及页数,自动下载页面 from urllib import request,parse import os tieba_name = input('请输入贴吧名称:') start = input('请输入起始页:') end = input('请输入结束页:') base_url = 'https://tieba.baidu.com/f?' search = {...
2018-06-22 00:28:29 173
原创 关于请求头的反爬
from urllib import request import random base_url = 'http://www.xicidaili.com' #构建请求头 UA = [ 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.79 Saf...
2018-06-21 21:35:23 706
原创 爬虫
获取页面内容的基本步骤 from urllib import request # 第一个要发起请求的url地址 base_url = 'http://www.baidu.com' # 打开url,获取响应 response = request.urlopen(base_url) # 读取页面内容 html = response.read().decode() # print(htm...
2018-06-21 21:24:37 157
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人