爬虫-从入门到入狱(level1)

95 篇文章 0 订阅
56 篇文章 0 订阅
本文介绍了如何使用Python进行简单的网络数据采集,通过编写代码利用requests库来实现百度搜索引擎的搜索,并将搜索结果的网页源码保存为HTML文件。文中还指导了如何查看浏览器的请求头,以伪装成正常浏览器访问防止被反爬程序识别。完成这个步骤标志着爬虫初学者已达到level1水平。
摘要由CSDN通过智能技术生成

我们往往需要采集大量的数据来进行分析,这些信息可以来源于网上,我们可以用爬虫的方法来获取到这些数据。

这里我们创建了一段代码,用我们的百度搜索引擎来搜索我们想要的词条

#这里我们导入request模块
import requests
if __name__=="__main__":
#这里我们指定我们的url,也就是我们的百度网址
    url='https://www.baidu.com'
#这里我们使用input获取我们输入的内容
    kw=input('enter a word:')
#这里定义我们的请求头,使用请求头可以方式反爬程序识别出我们的爬虫程序。
#因为请求头可以让我们的代码伪装成使用浏览器的正常访问,在文章的后面会介绍怎么查看自己的请求头
    headers={
        'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36'
    }
#这里我们使用一个字典类型来将我们要搜索的对象传入。
    param={
        'query':kw
    }
#这里我们使用response来接收我们request获得的网页数据,同时将我们的搜索参数和请求头传入
    response=requests.get(url=url,params=param,headers=headers)
#使用我们的page_text将我们返回文件中的text保存下来
    page_text=response.text
#将我们的存储的文件命名为我们的搜索的对html,
    fileName=kw+'.html'
#将我们获取到的网页进行永久化存储
//创建我们已经命好名的文件,并以写入的方式打开,并且设置我们的编码集为utf-8
    with open(fileName,'w',encoding='utf-8') as fp:
        fp.write(page_text)
    print(fileName,'保存成功')

接下来,我们就会发现在我们的python文件的同级目录下多了一个文件

然后打开我们的文件就能够获取到我们搜索夜阑配队的网页原码了。

接下来我们介绍怎么才能查看到我们自己电脑的请求头。

首先打开我们的谷歌浏览器,在我们的浏览器的输入网址的地方输入about:version

然后咱敲一下回车,就会看到我们电脑浏览器的信息

其中的用户代理这一栏就是我们的请求头

OK,如果你能将上述的代码完成,那么我们的爬虫就已经到了level1的水平。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值