机器学习笔记-python爬虫(2)——网页采集器

这篇机器学习笔记详细介绍了如何使用Python爬虫进行网页采集,特别是针对存在UA检测的网站。通过伪装浏览器UA来避免访问错误,以爬取搜狗搜索引擎的搜索结果为例,展示了设置和使用UA的方法,最终实现数据的持久化存储。内容包括基本的爬虫知识和解决访问限制的策略。
摘要由CSDN通过智能技术生成

用途:本案例主要学习爬虫的爬虫的UA伪装,能够将机器伪装为浏览器操作来获取网页数据

案例:通过爬虫爬取搜狗搜索的搜索功能,并将其结果页面数据持久化储存

前提知识:掌握简单网页的爬取方法

一、常规方法:常规网页的爬取方法是直接通过爬取代码进行界面获取,没有将爬虫进行伪装,常用方法如下,设置一个变量来获取搜索值,并进行搜索,代码如下:

# 需求:爬取搜狗首页的页面数据
import requests  # 引入requests包
if __name__ == '__main__':   # 指定脚本运行,不可导入其他脚本运行
    # 第一步:指定url
    url = 'https://www.sogou.com/web'

    kw = input("输入搜索信息")
    param ={
        "query": kw
    }
    # 对指定的url发起请求对应的url是携带参数的,并且请求过程中处理了参数

    # 第二步:发起请求
    # get方法会返回一个响应对象
    response=requests.get(url=url,params=param)
    # 第三步:获取响应数据,text返回的是字符串形式的响应数据
    # text返回的是页面对应的源码数据,字符串形式
    page_text = response.text
    print(page_text)
    # 第四步:数据持久化存储,写入文件
    # 要设置encoding='utf-8'&#x
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值