使用python的scrapy框架爬取网站信息

本文介绍如何利用Python的Scrapy框架抓取网页数据。通过scrapy shell命令进入交互模式,针对指定网址进行爬取。在过程中遇到编码问题和类型错误,通过response.xpath选择元素,并使用extract()[0]获取第一个文本内容,成功输出所需信息。
摘要由CSDN通过智能技术生成

用**scrapy shell 【domain】**命令爬取网站的信息
在这里插入图片描述
爬取红色方框内的文本信息
网址为:https://blog.csdn.net/weixin_43231021?t=1
打开命令行窗口
输入

scrapy shell "https://blog.csdn.net/weixin_43231021?t=1"

在这里插入图片描述
在**In[1]?*后面输入:

t=response.xpath('//*[@id="mainBox"]/main/div[2]/div[2]/p/a').extract()

然后按“回车键
接着输入

print(t)

发现爬取出来的信息乱码
接着输入

print(t.encode('utf-8'))

报错,错误信息是t是列表类型,没有encode方法
在这里插入图片描述

我们用**extract()[0]**解决
接着输入:

t=response.xpath('//*[@id="mainBox"]/main/div[2]/div[2]/p/a').extract()[0]

然后输入:

print(t.encode('utf-8'))

可以输出文本信息了
在这里插入图片描述
主要代码:

scrapy shell "https://blog.csdn.net/weixin_43231021?t=1"
t=response.xpath('//*[@id="mainBox"]/main/div[2]/div[2]/p/a').extract()[0]
print(t.encode('utf-8'))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值