个人爬虫学习小结(BeautifulSoup篇)

本文详细介绍了Python爬虫的基本步骤,包括设置User-Agent,使用requests库抓取网页,通过BeautifulSoup解析HTML,以及关键信息的查找和提取。此外,还涉及了编码转换和应对HTTPS警告的方法,适合初学者快速上手。
摘要由CSDN通过智能技术生成

思路:

1.获取要爬取网站的url(复制网址)

2.设置param字典作为requests.get的参数,通过查看在网页打开f12在network里查看User-Agent,并作为参数

3.用requests.get(url,params=param,verify=False)来爬取网页信息,并设置r来接收响应

(verify=False主要用在带有https的网页)

r = requests.get(url,params=param,verify=False)

4.根据网页源代码按住ctrl+f搜索charset查看编码格式,将爬取的页面转码

如 r.encoding = "utf-8"

注意这里是等号而非函数调用的格式

5.若调用requests时出现警告可加上如下代码解决

requests.packages.urllib3.disable_warnings()

6.用一个参数接收函数BeautifulSoup遍历

page = BeautifulSoup(r.text,"html.parser")

7.用page调用函数搜索需要的标签

ul_Find = page.find("ul",参数2)[1]

参数2用来指明标签的属性,可以为字典{"属性1":"属性值1" , "属性2":"属性值2"}

或者可以用函数find_all,参数一样

区别是find只搜索第一条,find_all搜索全部

返回的是列表

8.如果要继续搜索,可以继续用find和find_all函数根据标签搜索

9.可以用.get("属性")获取   --->属性值

        用.text获取标签里的内容

10.关闭响应

r.close()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值