- 博客(2)
- 收藏
- 关注
原创 python 爬虫第二节【上】(request)
python 爬虫第二节 接着昨天的内容 我们知道了得到一个网页的全部内容是上节所说,今天我们具体了解requests库 之前为什么要用到r=requests.get(url) 是因为我们经常用到缩写来代表整个单词,而这个r代表的是Response的意思(你要取别的名字也行,但是我们用type函数得出来的都是一样的),此时我们如果用type去测他的内容最后也会得到xxx.xx.Response。之前也说了,r包括了爬虫爬到网页的全部内容,对r来说也就有了多个属性,这些属性通俗易懂来说是对r可以进行操作,得到
2021-05-27 23:27:21 642
原创 python爬虫第一节
Python爬虫 爬虫作为我们获取信息的重要渠道,那么掌握爬虫必不可少。 那爬虫的准备条件是什么呢? 首先你要有运行Python的环境,然后学基本的python语法,接下来你就可以开始爬取网页了。 爬虫分为多个步骤,但是每一步都是有规律可寻的。 第一步 获取你所要爬取的网页 俗话说得好,攀登你一定要有目标,你没有目标你准备了一系列的工具有什么用呢?所以爬虫就像攀岩一样,首先你要有一个要爬取的网址url(为什么叫url呢?因为url是uniform resource locators的简写)。 有了
2021-05-27 01:28:26 81
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人