python 爬虫测试

1、安装requests 和 BeautifulSoup
2、查看permit.mee.gov.cn网站信息

from bs4 import BeautifulSoup
import requests

datas = {"xkgk": "getxxgkContent", "dataid": "38467816d913465a82878598c9e356fd"}
r = requests.post("http://permit.mee.gov.cn/permitExt/xkgkAction!xkgk.action",data=datas)
html = r.content.decode(encoding="utf-8-sig")
soup=BeautifulSoup(html,'html.parser') #变格式,删除无用空格
print(soup.text) #显示爬取的信息
print(soup.status_code) #显示链接目标网站是否成功。显示200即表示成功
with open("d:\data.txt","w",encoding='utf-8') as f:  #用 utf-8 编码打开 (实际文件的编码方式)
        f.write(soup.text)  #将爬取内容写入文本文件


续:

第一步,打开网址
第二步,进入谷歌浏览器,开发者工具
第三步,选中,浏览器开发者工具中的network,hide data urls选项。查看数据,找到xkgg!getregisterinfo.action 这个页面。就可以看到数据处理页面和数据需要转递的数据。数据为:form data 表单中的数据。
第四步,将网页地址和页面传递的数据用requests进行处理。

from bs4 import BeautifulSoup
import requests

datas = {"page.pageNo": "1",
         "page.orderBy":"",
         "page.order":"", 
         "province": "210000000000",
         "city":"211300000000",
         "registerentername":"",
         "xkznum":"", 
         "treadname":"",
         "treadcode":"",
         "publishtime": ""}
r = requests.post("http://permit.mee.gov.cn/permitExt/syssb/xkgg/xkgg!licenseInformation.action",data=datas)
html = r.content.decode(encoding="utf-8-sig")
soup=BeautifulSoup(html,'html.parser') #变格式,删除无用空格
print(soup.text) #显示爬取的信息
print(soup.status_code) #显示链接目标网站是否成功。显示200即表示成功
print(soup.title.string) 
with open("d:\data.txt","w",encoding='utf-8') as f:  #用 utf-8 编码打开 (实际文件的编码方式)
        f.write(soup.text) 

在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值