- 博客(2)
- 收藏
- 关注
原创 python 爬虫第二节【上】(request)
python 爬虫第二节接着昨天的内容我们知道了得到一个网页的全部内容是上节所说,今天我们具体了解requests库之前为什么要用到r=requests.get(url)是因为我们经常用到缩写来代表整个单词,而这个r代表的是Response的意思(你要取别的名字也行,但是我们用type函数得出来的都是一样的),此时我们如果用type去测他的内容最后也会得到xxx.xx.Response。之前也说了,r包括了爬虫爬到网页的全部内容,对r来说也就有了多个属性,这些属性通俗易懂来说是对r可以进行操作,得到
2021-05-27 23:27:21
647
原创 python爬虫第一节
Python爬虫爬虫作为我们获取信息的重要渠道,那么掌握爬虫必不可少。那爬虫的准备条件是什么呢?首先你要有运行Python的环境,然后学基本的python语法,接下来你就可以开始爬取网页了。爬虫分为多个步骤,但是每一步都是有规律可寻的。第一步 获取你所要爬取的网页俗话说得好,攀登你一定要有目标,你没有目标你准备了一系列的工具有什么用呢?所以爬虫就像攀岩一样,首先你要有一个要爬取的网址url(为什么叫url呢?因为url是uniform resource locators的简写)。有了
2021-05-27 01:28:26
83
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人