python 利用urllib2通过指定网页访问url,并捕获内容

# python 2.7.11

import urllib
import urllib2
# 文件编码获取工具
import chardet

# 利用请求的url地址,创建一个url对象
url = urllib2.Request('http://www.baidu.com')
# 访问请求的url对象,并获取一个应答对象(应答对象相当于一个文件对象)
response = urllib2.urlopen(url)
# 利用response的read() 方法获取文件内容
htmlConcent = response.read()

print htmlConcent


#  post 带参数的post请求

url = 'https://gpay.gyyx.cn/'
value = {
    'account': 'da',
    'location': 'SDU',
    'logmain.log': 'python'
}

# 参数编码
data = urllib.urlencode(value)
# 发送请求同时传递参数
req  = urllib2.Request(url, data)
# 接受反馈的信息
response = urllib2.urlopen(req)
# 读取反馈的内容
test  = response.read();


# get 带参数的get请求

data = {}

data['name'] = '张三'
data['pass'] = '李四'
# 参数编码
val_values = urllib.urlencode(data)

url = 'http://www.baidu.com'
# 参数合进url
full_url = url + "?" + val_values
# 打开url
data = urllib2.urlopen(full_url)


# 带header报文头的url 请求
url = 'http://www.someserver.com/cgi-bin/register.cgi'
# 报文头内容
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values = {'name' : 'WHY',
          'location' : 'SDU',
          'language' : 'Python' }

headers = { 'User-Agent' : user_agent }
data = urllib.urlencode(values)
# 创建Request时加入header 报文头
req = urllib2.Request(url, data, headers)
response = urllib2.urlopen(req)
the_page = response.read()

转载于:https://my.oschina.net/myzyq/blog/638967

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值