Python爬虫的post请求简单实例

登陆网页注册时用Python进行post请求,代码

首先查看页面源代码,注意form表单部分,哪里是需要递交的表单信息


运行代码

import urllib.request
import urllib.parse
url='http://www.iqianyue.com/mypost'
postdata=urllib.parse.urlencode({'name':'chenkehk','pass':'316107'}).encode('utf-8')#用字典保存索要注册的信息并用urlencode编码,使用encode()设置utf-8编码格式
r=urllib.request.Request(url,postdata)
r.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36')#模仿浏览器爬取,添加包头信息
data=urllib.request.urlopen(r).read()
f=open('D:/AuI18N/1.html','wb')
f.write(data)
f.close()

成功爬取网页并自动递交表单信息,完成post请求
关于代理服务器的设置
可以到http://www.xicidaili.com/这个地方找
代码:
import urllib.request
import urllib.parse

def u(p_add,url):
    p=urllib.request.ProxyHandler({'http':p_add})#设置代理服务器信息,
    openr=urllib.request.build_opener(p,urllib.request.HTTPSHandler)#构造一个对象,参数是代理信息和urllib.request.HTTPSHandler类
    urllib.request.install_opener(openr)#创建全局默认的openrd对象
    data=urllib.request.urlopen(url).read().decode('utf-8')#打开网址,爬取内容
    return data
p_add='111.155.116.240:8123'
data=u(p_add,'http://www.baidu.com')
print(len(data))
Debuglog日志,在爬取网页的同时打印调试日志,代码:
import urllib.request
import urllib.parse

httphd=urllib.request.HTTPHandler(debuglevel=1)
httpshd=urllib.request.HTTPSHandler(debuglevel=1)
openr=urllib.request.build_opener(httphd,httpshd)
urllib.request.install_opener(openr)
data=urllib.request.urlopen('http://edu.51cto.com')



如何查找登陆界面的,用户名密码字段,以下为例


在构造表单是可以建一个字典
{
"username":"chenkehao"
"password":"1111"
}
然后递交表单即可






使用Python进行爬虫POST请求的方法如下: 首先,导入必要的模块和库,比如urllib.request和urllib.parse。 然后,设置请求的URL和请求头信息。 接下来,构建POST请求的参数,将参数进行编码。 使用urllib.request.Request()函数创建请求对象,传入URL、参数和请求头。 使用urllib.request.urlopen()函数发送请求,并获取响应。 对响应进行解码,读取数据。 最后,根据需要对数据进行处理。 下面是一个使用实例: ```python import urllib.request import urllib.parse import json url = 'https://fanyi.baidu.com/sug' headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36 SLBrowser/8.0.0.5261 SLBChan/10'} param = { 'kw':'剪刀' } param = urllib.parse.urlencode(param).encode('utf-8') request = urllib.request.Request(url, param, headers) response = urllib.request.urlopen(request) page = response.read().decode('utf-8') content = json.loads(page) print(content) ``` 以上代码是一个使用POST请求进行百度翻译的例子。首先设置请求的URL和请求头信息,然后构建POST请求的参数,并进行编码。接着使用urllib.request.Request()函数创建请求对象,传入URL、参数和请求头。最后使用urllib.request.urlopen()函数发送请求,并获取响应。对响应进行解码,读取数据。最后根据需要对数据进行处理。 #### 引用[.reference_title] - *1* *2* *3* [Python爬虫——Get和Post请求的使用](https://blog.csdn.net/wpc2018/article/details/125778612)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值