R网络爬虫之批量下载

setwd("E:/r_w/")
#设置工作目录
library(RCurl)
html=getURL("http://rfunction.com/code/1202/")
#下载页面
temp=strsplit(html,"<li><a href=\"")[[1]]
#分割页面
files=strsplit(temp,"\"")
#分割页面
files=lapply(files,function(x){x[1]})
#此时files为list类型,取files中的每个元素的第一个元素
files=unlist(files)
#转换成非list类型
files=files[-(1:2)]
#去除第一第二行


base="http://rfunction.com/code/1202/"
for(i in 1:length(files))
{
  url=paste(base,files[i],sep='') 
  temp=getBinaryURL(url)
  #下载文件
  note=file(paste("1202",files[i],sep='.'),open="wb")
  #设置目录
  writeBin(temp,note)
  #写入
  close(note)
  Sys.sleep(2)
}

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值