自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

逐梦er的博客

到底什么是热爱 源于内心的脆弱 短暂的快活 像飞蛾扑火

  • 博客(18)
  • 收藏
  • 关注

原创 处理动态渲染页面

文章目录1.Selenium的使用2.查找节点3.交互4.动作链5.执行JavaScript6. 获取节点信息6.1 获取属性6.2 获取文本值6.3 获取id、位置、标签名的大小7.切换Frame8.延时等待8.1 隐式等待8.2 显示等待9.前进和后退10.Cookies11.异常处理1.Selenium的使用Selenium是一个自动化测试工具,利用它可以驱动浏览器执行特定的动作,如点击、下拉等操作,同时还可以获取浏览器当前呈现的页面的源代码,做到可见即可爬。对于一些JavaScript动态渲染的

2020-09-29 17:30:57 2694 1

原创 python网络爬虫学习笔记(十一):Ajax数据爬取

文章目录1.基本介绍2.基本原理3.实战有时候我们在用requests抓取页面的时候,得到的结果可能和在浏览器中看到的不一样:在浏览器中可以看到正常显示的页面数据,但是使用requests得到的结果并没有。这是因为requests获取的都是原始的HTML文档,而浏览器中的页面则是经过JavaScript处理数据后生成的结果,这些数据的来源有多种,可能是通过Ajax加载的,可能是包含在HTML文档中的,也可能是经过JavaScript和特定算法计算后生成的。对于第一种情况,数据加载是一种异步加载方式,原始

2020-09-28 15:18:14 1097 14

原创 python网络爬虫学习笔记(十):数据存储

文章目录1.文本存储2.JSON文件存储2.1 读取JOSN2.2 输出JSON3.CSV文件存储3.1 写入3.2 读取1.文本存储import requestsfrom pyquery import PyQuery as pq url = 'https://www.zhihu.com/explore'headers = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/537.36

2020-09-28 10:06:15 2380 15

原创 Python网络爬虫学习笔记(十):PyQuery库的使用

文章目录1.初始化1.1 字符串初始化1.2 URL初始化1.3 文件初始化2.CSS选择器3.查找节点3.1 子节点3.2 父节点3.3 兄弟节点遍历4.获取信息4.1 获取属性4.2 获取文本5.节点操作1.初始化1.1 字符串初始化引入PyQuery对象,取别名为pq。声明一个HTML字符串,并将其当作参数传递给PyQuery类,这样就成功完成了初始化。传入li节点,这样就可以选择所有的li节点:from pyquery import PyQuery as pqhtml = '''&lt

2020-09-26 21:08:03 541

原创 python网络爬虫学习笔记(九):Beautiful Soup的使用

文章目录1.基本用法2.节点选择器2.1 获取属性和名称2.2 获取内容(1)子节点和子孙节点(2)父节点和祖先节点(3)兄弟节点3.方法选择器4.CSS选择器Beautiful Soup就是Python的一个HTML或XML的解析库,可以用它来方便地从网页中提取数据。Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为UTF-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时你仅仅需要说明一下原始编码方式就可以了。如果使用lxml,那么在初始化Beauti

2020-09-26 11:10:45 613 14

原创 python网络爬虫学习笔记(八):XPath的使用

文章目录使用XPath1.XPath常用规则2.所有节点3.子节点4.父节点5.属性匹配6.文本获取7.属性获取8.按序选择使用XPathXPath,全称XML Path Language,即XML路径语言,它是一门在XML文档中查找信息的语言。1.XPath常用规则这里列出了XPath的常用匹配规则,示例如下://title[@lang='eng']这就是一个XPath规则,它代表选择所有名称为title,同时属性lang的值为eng的节点。后面会通过Python的lxml库,利用XPa

2020-09-26 09:58:12 586 16

原创 python网络爬虫学习笔记(七):正则表达式

文章目录Python正则表达式正则表达式的特点正则表达式的语法字符组元字符与转义排除型字符组字符组简记法量词常用量词Python的`re`模块模式特殊字符(参考教材p140)模式标识符定义匹配的输出命名分组正则表达式替换反向引用具有二义性的反向引用命名分组的引用方法正则表达式工具Python正则表达式正则表达式(regular expression)发源于与计算机密切相关的两个领域:计算理论和形式语言。其主要功能是从字符串中通过特定的模式(pattern)搜索想要的内容。给定一个正则表达式和另一个字符

2020-09-24 20:42:44 2113 16

原创 python网络爬虫学习笔记(六):Requests库的使用

文章目录1.基础操作1.1 GET请求1.2 post请求1.3 响应2.高级用法1.1 文件上传2.2 Cookies2.3 会话维持2.4 SSL证书验证2.5 代理设置2.6 超时设置2.7 身份认证1.基础操作import requestsr = requests.get("https://www.baidu.com/")print(type(r))print(r.status_code)print(type(r.text))print(r.text)print(r.cookies)

2020-09-24 11:22:30 2451 17

原创 python网络爬虫学习笔记(五):urllib.parse库

urllib.parse库定义了处理URL的标准接口,例如实现URL各部分的抽取、合并以及链接转换。它支持如下协议的URL处理:file、ftp、gopher、hdl、http、https等。1.urlparse()该方法可以实现URL的识别和分段,这里先用一个实例来看一下:from urllib.parse import urlparse result = urlparse('http://www.baidu.com/index.html;user?id=5#comment')print(ty

2020-09-24 09:14:57 571

原创 python网络爬虫学习笔记(四):异常处理

urllib的error模块定义了由request模块产生的异常。如果出现了问题,request模块便会抛出error模块中定义的异常。1.URLErrorURLError类来自urllib库的error模块,它继承自OSError类,是error异常模块的基类,由request模块生的异常都可以通过捕获这个类来处理。它具有一个属性reason,即返回错误的原因。下面用一个实例来看一下:from urllib import request,errortry: response = req

2020-09-24 09:12:54 371

原创 python网络爬虫学习笔记(三):urllib库的使用

文章目录使用urllib库1.urllib.request.urlopen()函数urlopen()函数API:2.urllib.request函数验证Cookies保存Cookies读取Cookies使用urllib库首先,了解一下urllib库,它是Python内置的HTTP请求库,也就是说不需要额外安装即可使用。它包含如下4个模块。request:它是最基本的HTTP请求模块,可以用来模拟发送请求。就像在浏览器里输入网址然后回车一样,只需要给库方法传入URL以及额外的参数,就可以模拟实现这个过程

2020-09-23 20:33:54 721 1

原创 python网络爬虫学习笔记(二):爬虫基本概述

1.爬虫的基本概述(1) 获取网页爬虫首先要做的工作就是获取网页,这里就是获取网页的源代码。源代码里包含了网页的部分有用信息,所以只要把源代码获取下来,就可以从中提取想要的信息了。python提供了许多库来帮助我们实现这个操作,如urllib、requests等。我们可以用这些库来帮助我们实现HTTP请求操作,请求和响应都可以用类库提供的数据结构来表示,得到响应之后只需要解析数据结构中的Body部分即可,即得到网页的源代码,这样我们可以用程序来实现获取网页的过程了。(2)提取信息获取网页源代码后,

2020-09-23 07:52:00 564

原创 python网络爬虫学习笔记(一):网页基础

1.URI和URLURI的全称为Uniform Resource Identifier,即统一资源标志符,URL的全称为Universal Resource Locator,即统一资源定位符。2.HTTP和HTTPSHTTP的全称是Hyper Text Transfer Protocol,中文名叫作超文本传输协议。HTTP协议是用于从网络传输超文本数据到本地浏览器的传送协议,它能保证高效而准确地传送超文本文档。HTTP由万维网协会(World Wide Web Consortium)和Internet

2020-09-21 23:26:48 868

原创 Numpy高级操作大全!!!

文章目录一.数组上的迭代二.数组形状修改函数1.ndarray.reshape2.ndarray.flat3.ndarray.flatten三.数组翻转操作函数1.numpy.transpose2. numpy.ndarray.T3.numpy.swapaxes4.numpy.rollaxis四.数组修改维度函数1.numpy.broadcast_to2.numpy.expand_dims3.numpy.squeeze五.数组的连接操作1.numpy.stack2.numpy.hstack3.numpy.v

2020-09-20 23:30:41 2863 14

原创 LeetCode Week 6:第 51 ~ 55 题

专栏——LeetCode文章目录专栏——LeetCode51. N 皇后52. N皇后 II53. 最大子序和54. 螺旋矩阵55. 跳跃游戏51. N 皇后n 皇后问题研究的是如何将 n 个皇后放置在 n×n 的棋盘上,并且使皇后彼此之间不能相互攻击。上图为 8 皇后问题的一种解法。给定一个整数 n,返回所有不同的 n 皇后问题的解决方案。每一种解法包含一个明确的 n 皇后问题的棋子放置方案,该方案中 ‘Q’ 和 ‘.’ 分别代表了皇后和空位。示例:输入:4输出:[[".Q…",

2020-09-16 10:53:50 3181 21

原创 Autograd看这一篇就够了!

文章目录autograd1. requires_grad2. 计算图3. 扩展autograd4. 小试牛刀: 用Variable实现线性回归autograd用Tensor训练网络很方便,但从上一小节最后的线性回归例子来看,反向传播过程需要手动实现。这对于像线性回归等较为简单的模型来说,还可以应付,但实际使用中经常出现非常复杂的网络结构,此时如果手动实现反向传播,不仅费时费力,而且容易出错,难以检查。torch.autograd就是为方便用户使用,而专门开发的一套自动求导引擎,它能够根据输入和前向传播过

2020-09-05 16:44:36 16779 18

原创 Tensor看这一篇就够了!

文章目录Tensor1. 基础操作1.1 创建Tensor1.2 常用Tensor操作1.3 索引操作1.4 高级索引1.5 Tensor类型1.6 逐元素操作1.7 归并操作1.8 比较1.9 线性代数2. Tensor和Numpy3. 内部结构TensorTensor,又名张量,读者可能对这个名词似曾相识,因它不仅在PyTorch中出现过,它也是Theano、TensorFlow、Torch和MxNet中重要的数据结构。关于张量的本质不乏深度的剖析,但从工程角度来讲,可简单地认为它就是一个数组,且

2020-09-05 11:31:03 2617 13

原创 LeetCode Week 5:第 41 ~ 50 题

专栏——LeetCode文章目录专栏——LeetCode1.缺失的第一个正数42. 接雨水1.缺失的第一个正数给你一个未排序的整数数组,请你找出其中没有出现的最小的正整数。示例 1:输入: [1,2,0]输出: 3示例 2:输入: [3,4,-1,1]输出: 2示例 3:输入: [7,8,9,11,12]输出: 1题解:将所有的数用map存起来,然后从1依次开始找没有出现在map中的最小的正整数python版class Solution: def firs

2020-09-05 09:33:16 3161 33

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除