Python爬虫学习 from Lucas

关于Requests这个库,也是需要先pip一下,然后下面是一小段

import requests
response=requests.get('http://www.Baidu.com')
print(response.status_code)#http状态码,计网课上好像有讲过
'''
200请求成功
301/302重定向
403禁止访问
404找不到资源
405Method Not Allowed
500服务器问题
502网关问题

'''
print(response.text)#打印输出请求百度的相关
print(response.url)#获取请求的url,可以直接link到baidu,同理适用所有
print(response.headers)#获取请求头
#关于headers其实大有可为,后面会用到,相当于是一个接口吧,链接Web和你的程序
print(response.cookies)
#获取cookies和cession,其实这里也会有用处
#好比说你做了一个模拟登陆的界面,然后登陆后的界面你会单独request一个
#但如果没有cookie你再次打开就没有办法直接通过跳过登陆界面进入,会返回到登陆界面,就很烦
print(response.content)#以字节流返回数据
#req2=requests.get('tupianmingcheng1')
#with open('a.jpg','wb') as f:
#    f.write(req2.content)
file1=open('test','r')
#这里的test是我自己建的哦,Python对文件的操作后面会研究的,能用就行
print([i.replace("\n","") for i in file1.readlines()]
'''
第一部建立文件
第二部测试下面命令
file.read()读取全部文件
file.readlines()读取整个文件以列表形式返回
file,readline()逐行读取
第三步打印
'''
print(file1.closed)#文件是否关闭:关True,未关闭False
print(file1.mode)#确定访问模式
print(file1.name)#打印文件名
file1.close()
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值