r语言和python爬虫谁厉害_R语言中,RCurl优势在哪儿,做爬虫的话用Python还是RCurl效率高?...

由于电商网站的数据的实时性要求,数据分析时一般直接从网页爬取。因此使用爬虫的方法显得十分重要。R作为数据分析的软件,可以直接对爬取的数据进行后续处理,加上上手快的特点,是电商网站数据爬取和分析的好工具。

下面以http://cn.shopbop.com/为例 简单分享下使用Rcurl对网站进行数据爬取的过程。

首先需要在Rgui里安装需要的软件包

require("RCurl")

require("rjson")

require(stringr)

require(XML)

#得到网页地址,并将其转换成html源码

doc = getURL(url)

txt = htmlParse(doc, asText = TRUE)

print(txt)

#由于获取网页中商品数据需要对html源码结构进行分析,因此可以直接在浏览器中查看后,再到R中进行编辑

在源码中很容易找到网站导航中子网站的网址

#因此可以通过xmlPath语言找到相应子网站的节点

a " />

如果得到的中文有乱码,则需要对编码进行转换

b

c

c

否则 可以通过xmlGetAttr函数 得到所需的attributes

d " />

由于得到的只是子网页的路径,要获取子网页的数据 需要用paste链接网站根目录地址

d1=paste(url,d[1],sep="" )

#对于批量爬取商品的信息还需要获取商品展示子网页的页数

每页显示40个商品,一共有1200个商品。

通过网址,我们很容易了解商品展示页的地址规则。

#因此,可以通过一个简单的循环来获取所有网页的地址,从而获取每个网页的所有商品信息。

a

d

pagenum=strsplit(d,"=")

maxpagenum=0;

for(i in 1:length(pagenum)){

maxpagenum[i]= pagenum[[i]][3]

}

maxpagenum=max(as.numeric(maxpagenum))

#[1] 1200

#在获得所有网页后,获取所有商品的信息就变得简单了,只要循环对每个网页的信息进行xml关键字的爬取

#名称信息

图片信息

价格信息

通过文本处理和输出,就可以将其进行保存和后续的数据分析。

欢迎交流讨论批评指正(qq 570881451)

更多资讯欢迎关注微信号:ClanofData 拓端数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值