首先,我们需要安装R的requests和代理包。在R的命令行中运行以下命令:
```r
install.packages("httr")
install.packages("proxy")
```
以下是一个简单的爬虫程序示例,爬取抖音快手商户的内容。这个程序会通过代理信息访问网页,并获取网页的HTML内容。
```r
# 引入所需的包
library(httr)
library(proxy)
# 设置代理信息
proxy <- proxy("http://)
# 设置请求参数
req <- GET(
"https://",
add_headers("User-Agent" = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3",
"Accept" = "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,/;q=0.8,application/signed-exchange;v=b3;q=0.9",
"Accept-Encoding" = "gzip, deflate, br",
"Accept-Language" = "zh-CN,zh;q=0.9,en;q=0.8,zh-TW;q=0.7"
),
proxy = proxy
)
# 检查请求是否成功
if (req$status_code != 200) {
stop(paste0("Failed to get response. Status code: ", req$status_code))
}
# 获取HTML内容
content <- content(req, "text")
# 输出HTML内容
cat(content)
```
你可以根据需要修改URL,以爬取其他网页的内容。