python lxml爬取网页内容

记录一下第一次使用python爬取网页内容!
lxml的安装可自行百度,这里不多说
以豆瓣影评为例,网址https://movie.douban.com/subject/2043546/
在这里插入图片描述
F12打开控制台查看html,可以看出用户的评论都在class="review-list "的div里,它的每个子级div都代表一条评论。ok,清楚结构了,下面开工

from lxml import etree
import requests

url = "https://movie.douban.com/subject/2043546/"
response = requests.get(url)
text = response.text
html = etree.HTML(text)

先获取到这个页面的html,对了,这里还用到了xpath来选择节点,具体用法请参考文章Python_XPath
代码继续,先选中class="review-list "的div及所有的评论

#选中class="review-list  "的div
div = html.xpath('//div[@class="review-list  "]')[0]
#选中下级所有div,即所有评论
lists = div.xpath('./div')

获取到所有的评论之后,就遍历获取每一条评论的信息并打印出来

for item in lists:
    name = item.xpath('.//a[@class="name"]/text()')[0]
    time = item.xpath('.//span[@class="main-meta"]/text()')[0]
    comment = item.xpath('.//div[@class="short-content"]/text()')[0]
    print('用户:'+name+'\n'+'评论内容:'+comment+'\n'+'评论时间:'+time+'\n\n')

从html结构可以看出,用户的名称都放在class="name"的a标签中
在这里插入图片描述
评论内容和评论时间同理
打印结果得到
在这里插入图片描述
全部代码为

from lxml import etree
import requests

url = "https://movie.douban.com/subject/2043546/"
response = requests.get(url)
text = response.text
html = etree.HTML(text)
#选中class="review-list  "的div
div = html.xpath('//div[@class="review-list  "]')[0]
#选中下级所有div,即所有评论
lists = div.xpath('./div')
for item in lists:
    name = item.xpath('.//a[@class="name"]/text()')[0]
    time = item.xpath('.//span[@class="main-meta"]/text()')[0]
    comment = item.xpath('.//div[@class="short-content"]/text()')[0]
    print('用户:'+name+'\n'+'评论内容:'+comment+'\n'+'评论时间:'+time+'\n\n')

好了,到此为止简单的爬取html内容就完成啦!
萌新初次接触,仍在学习中,文章内容毫无营养,只用于记录!

  • 7
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Python爬取网页数据,可以使用Requests库来发送HTTP请求并获取网页内容。首先,你需要安装Requests库,可以通过pip命令来进行安装。然后,你可以按照以下步骤来进行爬取网页数据的操作: 1. 导入Requests库:在Python程序中使用import语句导入Requests库。 2. 发送HTTP请求:使用Requests库的get()方法发送GET请求,传入目标网页的URL作为参数。 3. 获取网页内容:通过调用响应对象的text属性,可以获取到网页的HTML内容。 4. 解析网页内容:如果需要提取特定的数据,可以使用Python的解析库,例如Beautiful Soup或lxml来解析网页内容,并提取所需的数据。 5. 保存数据:根据需求,可以将提取的数据保存到本地文件或者数据库中。 总结一下,使用Python爬取网页数据的流程包括模拟请求网页、获取数据和保存数据三个步骤。首先使用Requests库发送HTTP请求,然后获取网页内容,最后根据需求解析和保存数据。这样就可以通过Python爬取网页数据了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [如何用Python爬取网页数据,Python爬取网页详细教程](https://blog.csdn.net/python03013/article/details/130929261)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值