前一阵十九大召开,公司有任务要通过公司的平台页面添加一批数据(可平台开发人员已离职,种种原因也无法后台数据库批量添加,只能通过页面单个添加),这就造成只能人工一个一个的进行添加。但是项目组人手严重不足,给任务按时的完成带来了丛丛困难。由于接触到了Python 对Python的爬虫技术感上了兴趣,其中理解到Python的requests的post提交登录表单的功能。决定使用Python进行数据添加。经过不懈的努力,终于使用cookies登录方式,成功的提交了multipart/form-data表单数据,终于完成了添加任务。
废话不说了!先上代码
# coding:utf-8
import requests
url = 'http://xxxx/xxxx/XNweA.exol' #输入要提交表单的页面url
‘’‘
我相信一般公司内部平台的页面都是需要登录才能进行各种操作的。
为了保持登录状态提交表单,我们就需要cookies
’‘’
cookie = {
'xxx':'xxx',
'userid':'xxx',
'customerType':'xxx',
'curMenuId':'xxx',
'curMenuCode':'xxx',
'ASP.NET_SessionId':'xxx'
} # 带着Cookie向网页发请求\
# 内部网一般限制不严,我们只要告诉服务器是浏览器访问的即可