爬虫的学习

本文介绍了Python爬虫的基本流程,包括使用requests库发起HTTP请求获取网页内容,通过BeautifulSoup解析HTML,以及如何保存数据。通过实例展示了如何请求百度首页,并进行内容解析。爬虫技术对于数据收集和分析具有重要意义。
摘要由CSDN通过智能技术生成


爬虫理解:爬虫是一个模拟人类请求网站行为的程序。可以自动请求网页、并数据抓取下来,然后使用一定的规则提取有价值的数据。

爬虫的过程

 获取数据:
通过服务器向目标站点发起请求,请求可以包含额外的header等信息,如果服务器能正常响应,会得到一个Response,便是所要获取的页面内容。
解析内容:得到的内容可能是HTML、json等格式,可以用页面解析库、正则表达式等进行解析。
保存数据:保存形式多样,可以存为本地文本,也可以保存到数据库(MySQL等)

首先需要选择网址获取数据,用request库

import requests
r=requests.get("http://www.baidu.com")#使用get函数打开百度
print(r)  #返回状态 
r.encoding='utf-8'#中文字符可以输出
print(r.text)

解析内容,用beautifulsoup4

import requests
from bs4 import BeautifulSoup
r=requests.get("http://www.baidu.com")
print(r)  #返回状态 
r.encoding="utf-8"
soup=BeautifulSoup(r.text) #soup是beautifulsoup的一个对象
type(soup)

保存数据

可选择保存为文本或数据库

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值