使用ucinet和netdraw做文献计量的可视化分析+利用spss做系统聚类分析
阅读文献的时候经常看到针对文本做可视化的文章,内心痒痒,想学一点简单的文献计量处理?以下是我的学习过程。
1.使用ucinet和netdraw做文献计量的可视化分析
我搜索到这篇文章,特别实用,基本讲清了需要的素材和处理过程,但是唯一缺点是有做广告嫌疑哈。—>http://gooseeker.com/doc/article-442-1.html,原文标题《利用GooSeeker分词、Ucient和NetDraw进行社会网络分析》
##结合自身体会,总结如下实现思路。
.1.1选好要分析的文本。(此处可利用爬虫等方式)
.1.2对文本做内容的浏览,或者使用软件爬取,总结出所有主题词。
.1.3根据自己设定的同义词组表,对相近主题词进行合并,并根据出现的频率总结高频主题词。
.1.4 根据excel语法
=SUMIFS($B:$B,!$A:$A,"*"&$C2&"*",$A:$A,"*"&D$1&"*")
得到共词矩阵.
.1.5将同词矩阵导入ucient,得到.##h格式文件。
.1.6将该文件用netdraw打开,做度中心度分析。(具体操作见网页)
2.利用spss做系统聚类分析
这个就比较容易了,将共现矩阵导入软件。
搜到很多类似教程。 https://bbs.pinggu.org/thread-3068674-1-1.html