Python 爬虫入门 requests lxml bs4

这篇博客记录了作者初次学习爬虫的体验,通过Python的requests库获取HTML代码,并对比介绍了使用BeautifulSoup和lxml解析HTML的方法,推荐使用lxml因其速度更快。在解析过程中,提到了XPath的使用技巧,以及遇到的问题和解决办法,强调了爬虫学习需要多实践和熟悉常见问题。
摘要由CSDN通过智能技术生成

一:前言

正式学习爬虫的第一天,感觉信息量巨大。用此篇博客来快速入门爬虫并爬取古诗文网的内容。(使用 requests lxml bs4)

二:过程

2.1 获取 url 中的 html 代码

中文官方文档指引(http://docs.python-requests.org/zh_CN/latest/user/quickstart.html),内容繁琐比较多,本文精简整理必要内容。

先安装requests

pip install requests

在文档中引入

import requests

# url 是古诗文网的
url = 'https://so.gushiwen.org/guwen/Default.aspx?p=1&type=%e6%ad%a3%e5%8f%b2%
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值