python爬虫入门----用urllib抓取整个网页

#不能用print(file.read())查看函数结果,会影响函数值,使函数值变为空值(@_@之前犯了这个错误);想要输出,要先把函数值赋值给变量,用变量输出
from urllib import *
import urllib.request as re
file= re.urlopen('http://www.baidu.com')
data=file.read()
dataline=file.readline()
datalines=file.readlines()
#1.html要先创建,不方便

fhandle=open("D:/DB/1.html","wb")
#把baidu的html代码copy下来,无图片
fhandle.write(data)
fhandle.close()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值