笔记
文章平均质量分 57
我叫Cooper
这个作者很懒,什么都没留下…
展开
-
python 爬虫第二节【上】(request)
python 爬虫第二节 接着昨天的内容 我们知道了得到一个网页的全部内容是上节所说,今天我们具体了解requests库 之前为什么要用到r=requests.get(url) 是因为我们经常用到缩写来代表整个单词,而这个r代表的是Response的意思(你要取别的名字也行,但是我们用type函数得出来的都是一样的),此时我们如果用type去测他的内容最后也会得到xxx.xx.Response。之前也说了,r包括了爬虫爬到网页的全部内容,对r来说也就有了多个属性,这些属性通俗易懂来说是对r可以进行操作,得到原创 2021-05-27 23:27:21 · 661 阅读 · 0 评论 -
python爬虫第一节
Python爬虫 爬虫作为我们获取信息的重要渠道,那么掌握爬虫必不可少。 那爬虫的准备条件是什么呢? 首先你要有运行Python的环境,然后学基本的python语法,接下来你就可以开始爬取网页了。 爬虫分为多个步骤,但是每一步都是有规律可寻的。 第一步 获取你所要爬取的网页 俗话说得好,攀登你一定要有目标,你没有目标你准备了一系列的工具有什么用呢?所以爬虫就像攀岩一样,首先你要有一个要爬取的网址url(为什么叫url呢?因为url是uniform resource locators的简写)。 有了原创 2021-05-27 01:28:26 · 88 阅读 · 0 评论