Rstudio 实现 爬虫 文本分词 个性化词云设计--我爱中国我爱党

Rstudio 爬虫 文本分词个性化词云设计

  • 目录

  1、环境准备,加载依赖

  2、rvest 爬虫,数据爬取

  3、jiebaR用于分词,词频统计

  4、wordcloud2 结果可视化

===============================================================================================================================================

1、环境准备,加载依赖

2、数据爬取

3、数据清洗

4、词云设计

install.packages("wordcloud2")
install.packages("rvest")
install.packages("jiebaR")
library(wordcloud2)
library(rvest)
library(jiebaR)


# 开始爬虫
url<-'http://www.gov.cn/premier/2017-03/16/content_5177940.htm'
#读取数据,规定编码
web<-read_html(url,encoding="utf-8") 
position<-web %>% html_nodes("div.pages_content") %>% html_text()

# jieba分词,词频统计
#初始化分词引擎并加载停用词。
engine_s<-worker(stop_word = "stopwords.txt")
#分词
seg<-segment(position,engine_s)
#统计词频
f<-freq(seg)
#根据词频降序排列
f<-f[order(f[2],decreasing=TRUE),]

#基于wordcloud2包进行可视化
#总共有2000多个词,为了显示效果,我只提取前150个字
f2<-f2[1:150,]    
#形状设置为一颗五角星
wordcloud2(f2, size = 0.8 ,shape='star')    

 

转载于:https://www.cnblogs.com/RHadoop-Hive/p/8929904.html

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值