第一课 Python爬虫初识与网络请求

Python爬虫学习第一课记录

1.非结构化数据:

如图的网页资料/文章,因此我们需要挖掘有价值的数据,那么这个时候我们需要通过ETL(Extract,Transformation,Loading)工具才能将数据转化为结构化数据之后,数据才可以的有效的利用。


2.ETL:

原始资料->ETL脚本->结构化数据

食材->厨师->美食

3.如何处理非结构化数据

将新闻列表的标题、摘要、图片抓取下来。

4.网络爬虫:

比如百度、Google等搜索引擎的各种爬虫,无数的爬虫自动的去获取网络上的最新资讯。

用途:

1.比如开发一个爬虫自动获取用户的需求数据===挖掘价值数据,降低人工成本,提升效益!

新浪新闻主页



5.网络请求:

浏览器F12打开控制台,看到有186个请求

(这里我使用的是360极速浏览器)



随便打开一个



很容易理解!这是我们的概览请求

然后我们看看网站服务器给我们的回应:



打开网址:http://news.sina.com.cn/china/

国内新闻:



按下F12打开开发者工具,刷新后选择DOC(如图):





需要的环境相信大家都配置好了!

Python3.x

Request

Beautifulsoup4

对于环境的配置和安装,百度一下就会有很多详细的资料,此处不详细讲解!

至此,第一课结束!

QQ:1099718640

个人主页:http://blog.csdn.net/dyboy2017

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值