软工之词频统计2.0-结对作业二

作业地址

写在前面

分工

  • 031602507:陈俞辛
    • 实现命令行参数的支持、自定义输入输出文件、加入权重的词组词频统计、实现自定义词频统计输出、实现多参数的混合使用、附加题构思实现。
  • 031602543:周政演
    • 实现python、java的论文爬虫工具、对各个函数功能模块进行单元测试,附加题的构思撰写、博客文档的设计撰写。

解题思路与设计实现

爬虫

该爬虫可以从CVPR的论文列表上爬取论文题目、摘要,并输出到一个.txt文件中。在此使用两种了工具实现了爬取功能:Java、python

思路

两种语言的实现思路大致相同:

  1. 发送http请求
  2. 获取整个页面的html
  3. 寻找论文页面的URL
  4. 循环进入每篇论文页面
  5. 获取每篇论文的信息
  6. 输出到result.txt文件
  • 其中实现的关键:是找出html的特征部分。也就是能够唯一确定title、abstract位置的html代码段。
  • 例如,针对某段html代码;
<dt class="ptitle"><br><a href="content_cvpr_2018/html/Das_Embodied_Question_Answering_CVPR_2018_paper.html">Embodied Question Answering</a></dt>

其中下段代码可以在整个html页面中确定url的位置

<dt class="ptitle">

通过观察各个页面的url形式,a href = 后的双引号部分中间,加上一段url的头部,即是该篇论文的URL。

贴出python方法的部分代码作为示例:

def GetPaper(FullPaper,begin,end)://获取论文url
         left = FullPaper.find('''<dt class="ptitle">''',begin,end)#特征代码首位置
         right = FullPaper.find('''</a></dt>''',begin,end)#特征代码末位置
         paper = FullPaper[left:right]
         str1=paper.split('"') # 分割开该段文本
         return str1[3]# 提取url链接

代码github地址

  • 同时,抓取的过程可以显示抓取进度

1092889-20181010014413277-1783289813.png

  • 此部分是提取出来的 PaperList 的部分 url 列表

1092889-20181010014455283-920709960.png

  • 此部分为导出的 .txt 文本

1092889-20181010014513661-1809997845.png

代码组织

  • 代码主要由两个关键部分组成:Count类FileIO.h
  • Count类: 由

1092889-20181010211935222-1061583646.png
1092889-20181010212058170-1753452811.png

算法关键

关键代码一:统计出现频率最高的X个词组:

//统计出现频率最高的X个词组
vector<map<string, int>::iterator> & Count::countTopXPhrase(int topX)
{
    int phraseMapSize = int(phraseMap.size());
    for (int i = 0; i < phraseMapSize && i < topX; i++)
    {
        auto maxFrxPhrase = phraseMap.begin();
        for (map<string, int>::iterator it = phraseMap.begin(); it != phraseMap.end(); it++)
        {
            if (it->second > maxFrxPhrase->second)
            {
                maxFrxPhrase = it;
            }
        }
        topXPhrase.push_back(maxFrxPhrase);
        maxFrxPhrase->second = -maxFrxPhrase->second;
    }
    return topXPhrase;
}
代码思路
  • map中存储的是词组和出现频次的 键-值 对,要统计出现频率最高的X个词组,主要有以下两种思路:
思路一
  • 对所有 键-值 对进行排序,从高到低逐个输出词组,得到词组出现频次的排行榜
  • 由于不可直接对map进行排序,所以考虑将map的键值对提取,存入自定义的键值对结构体,然后对结构体进行排序。
  • 优点:直接获得排好序的词组排行榜,以后可以根据需要,灵活输出前x个词组的排行。
  • 缺点:使用结构体存储,带来空间资源的开销;对结构体数组进行排序,降低了算法性能。
思路二
  • 不对 键-值 对进行排序,对map直接进行遍历,找到频次最高的词组。
  • 无需对map排序,直接对map遍历,每遍历一次,找到频次最高的词组,然后将该词组置为负数
  • 优点:资源开销小,算法性能高
二者比较
  • 经过测试,思路二的方法性能明显高于思路一,且更不易出错。本次要求无需多次查找不同词组个数的排行榜,思路二更适用于本测试。故使用思路二。
  • 思路二遍历 topX 遍的时间复杂度 O(n) , 而思路一若采用快排时间复杂度为 O(nlogn) 如果单词数 > 100,那么思路一更快。如果单词数 <100,那么思路二更快,但单词数过少,性能的提升十分有限的。
  • 算法关键:将每一次遍历找出的最高频词组频率置为负数,这样在下一次遍历的时候就不会被重复查找,并且在输出的时候只需要找到负数,输出该词即可。
函数流程图:

统计高频词组

  • 注:( 其中 topX 指命令行输入的自定义词频,如果不指定默认为 10) 。

关键代码二:加入权重的词频统计(部分)

if (wordBuf == "title" && linesBuf[i][j] == ':' && j == 5)
    {
        paperCount++;   //每出现一个 title: 说明是一篇论文
        isTitle = true;
        wordBuf = "";
        continue;
    }
    if (wordBuf == "abstract" && linesBuf[i][j] == ':' && j == 8)
    {
        isTitle = false;
        wordBuf = "";
        continue;
    }
  • 根据需求:属于 Title 的单词权重为10,属于 Abstract 单词权重为1 。首先要区分,单词是属于 Title 部分还是 Abstract 部分。
  • 通过检测到文本中的 title 区分: (读取文件时已经都转为小写) 设置一个 flag 来标记 title
  • 同时,为了避免文中本身有 title: 这样的串,必须是出现在行首的才设置flag
  • 算法过程:对全文进行遍历操作,当文本为 title串,且出现在行首时,设置一个flag作为标记,以此来确定,之后的单词属于 title 部分

关键算法功能一:词组统计

词组

关键算法功能二:文件读取

  • 此外文件的读取同样重要,因为有部分的字符是不需要读取的,并且有固定的格式,因此需要额外的处理。对于每一篇论文都只读取 title 和 abstract两个字段的内容。每次开始读取前都先将论文编号跳过(也就是判断为数字则继续读取下一个字符直至换行符出现)然后读取两行。然后继续等待数字出现。
    读取文件

附加题设计与展示

相关实现文件网盘地址

会议领军人

设计的创意独到之处

“会议领军人”简介:根据在CVPR的论文发表情况,对会议的作者进行一个排行,不同位次的作者占有不同的权重。例如:第一作者权重为5,第二作者权重为4,依次递减,从第五作者后权重均为一。

  • 增加了“会议领军人”的可视化功能,将会议领军人以柱状图的形式呈现,直观方便地查看作者,以及作者论文发表情况的相对关系。

“会议领军人”作用:

  • 根据排行,可以迅速找到本会议、甚至本领域的“领军人物”,通过作者位次的排行,可以有丰富的作用
  • 可以通过位次靠前的作者,找一个或多个较为热门的研究方向
  • 可以通过位次靠前的作者,查他的所作出的相关工作,沿着大牛走过的路前进,少走弯路。
  • 可以通过位次靠前的作者,查找他的研究成果,了解世界最前沿,质量较高的科研成果。

实现思路

思路:

  • 修改爬虫程序,使其可以爬取作者信息,并以逗号分隔作者名。
  • 处理文件时,对以 Authors:开头的行进行遍历。每遇到一个逗号则将作者名保存进数组。
  • 通过作者名在数组中的位置即可分辨是第几作者。每一篇论文进行一次加权计算,然后清空数组进行下一篇论文的计算。
  • 其中第一作者权重为 5 ,依次递减。第五作者之后权重均为 1.

可视化思路:

  • 在原有基础上对生成的文件进行处理
  • 利用 python 的 Matplotlib库生成柱状图
  • 并且在每个柱上添加了具体的数值方便查看
  • 横轴标签作者名过长旋转30°显示。

实现成果展示

通过“会议领军人”,对作者进行了排行,以下是爬取的结果:

1092889-20181013211625107-1014352517.png

然后生成可视化的界面

1092889-20181017205026034-1431485717.png

关键代码解释

对读取到的作者进行加权

int authorCountSize = int(authorCount.size());
            for (int i = 0; i < authorCountSize; i++)
            {
                if (i < 5)
                {
                    authorMap[authorCount[i]] += (5 - i);
                }
                else
                {
                    authorMap[authorCount[i]]++;
                }
            }

可视化部分的python代码

import matplotlib.pyplot as plt

def autolabel(rects):
 for rect in rects:
  height = rect.get_height()
  plt.text(rect.get_x()+rect.get_width()/2.-0.2, 1.03*height, '%s' % float(height))
  
rf = open('AuthorRank.txt','r',encoding='UTF-8')
content = rf.readlines()
name_list = []
num_list = []
for x in content:
    Author = ""
    Count = ""
    flag1 = 0
    flag2 = 0
    for y in range(len(x)):
        if flag1 == 1:
            Author += x[y]
        if flag2 == 1:a
            Count += x[y]
        if x[y] == ' ' and x[y-1] == ':':
            flag1 = 1
        if x[y] == ',':
            flag1 = 0
            flag2 = 1
    name_list.append(Author)
    num_list.append(int(Count))
plt.ylabel("Impact Factor")
plt.xlabel("Author Name")
plt.title(u"Author Rank")
fig = plt.bar(range(len(num_list)), num_list,width = 0.35,align='center',color = 'c',alpha=1)
plt.xticks(range(len(num_list)),name_list,size='small',rotation=30)
autolabel(fig)
plt.savefig("test.png")
plt.show()

词云

原先生成的字符词频统计排行有以下下缺点:

  • 生成的词频排行不够直观
  • 缺少可视化
  • 应用在网站上不够美观,且难以吸引眼球
  • 与整体UI设计难以一致

故根据获得的词频排行,做出一个可视化的词云,词的大小即代表着词频的大小,可以瞬间catch your eyes,且便于根据图片生成词云,与网站ui风格契合。

设计的创意独到之处

  • 可视化的词云:词的大小即代表着词频的大小。
  • 吸引眼球:越大的单词,代表该词越热,瞬间吸引读者。
  • 可定制化:且便于根据图片生成词云,与网站ui风格契合。

实现思路

  • 使用 python 自带的jieba库对分本进行分词
  • 然后自带的wordcloud库根据之前分词的结果形成词云
  • 设置停用词集过滤一些无意义的词,比如which this等

实现成果展示

1092889-20181010235808770-1546206429.png

关键代码解释

from wordcloud import WordCloud,ImageColorGenerator,STOPWORDS
import jieba
import matplotlib.pyplot as plt
from PIL import Image
import numpy as np 
 

text = open('result.txt','r', encoding='UTF-8').read()

cut_text = jieba.cut(text)
result = '/'.join(cut_text)

stopwords = set(STOPWORDS)

image = Image.open('fivestart.png')  
img = np.array(image) 
#词云的生成,字体的路径一定要写上不然会出现乱码 可以下载其他字体创新
wc = WordCloud(font_path = "C:\Windows\Fonts\STHUPO.ttf",background_color='white',max_font_size=150,mask=img) 
# WordCloud其他参数设置,random_state=42,max_words=2000,min_font_size=20
wc.generate(result)
#绘制文字的颜色以背景图颜色为参考  
image_color = ImageColorGenerator(img)
wc.recolor(color_func=image_color)  
#图片的展示 
plt.imshow(wc)
plt.axis("off")
# 像素点多少
plt.savefig("wordcloud3.png",dpi=300)
# plt.show()

论文分类器

CVPR上缺少对论文的分类,事实上,论文的分类有许多作用:

  • 根据方向分类:便于了解当前本领域有哪些研究方向,对该领域有一个横向的了解
  • 便于文献查阅:根据方向,直接查找相关论文,增加查找效率
  • 便于综述撰写:根据论文分类,可以对本领域有更全面的了解,并为综述的撰写打好基础,为进一步分类的细化做好准备。
    故设计论文分类器,根据已有方向,对论文进行分类。

设计的创意独到之处

  • CVPR上缺少对论文的分类,而论文分类却益处良多。
  • 可以根据论文的方向分类,便于查阅论文
  • 有利于撰写综述,对本领域有更全面的了解,进一步细化分类

实现思路

  • 可根据该领域最主要的几个研究方向,进行关键词爬取
  • 拥有该关键词的论文,归为一类,且可以重复。
  • 可以根据该研究方向的关键词相关词,进行分类,增加分类的准确度

实现成果展示

  • 可以参照ccf a类会议 sigcomm 的论文分类形式,对 CVPR 的论文进行分类:
    1092889-20181013214137648-1957860682.png

性能分析与改进

性能分析

分析一

0
Title: Monday Tuesday Wednesday Thursday
Abstract: Monday Tuesday Wednesday Thursday Friday
  • 词组统计功与单词统计功能相互耦合。不论是否开启词组统计功能,都会进行词组统计操作,若是不使用词组统计功能,该统计将成为冗余的功能,影响统计性能。
    优化前

分析二

  • 改进词频统计部分:针对词频统计部分,由于不可直接对map进行排序,所以考虑将map的键值对提取,存入自定义的键值对结构体,然后对结构体进行排序。使用结构体存储,带来空间资源的开销;对结构体数组进行排序,降低了算法性能。

  • 思路一遍历 topX 遍的时间复杂度 O(n) , 而思路二若采用快排时间复杂度为 O(nlogn) 。如果单词数 > 100,那么思路一更快。如果单词数 < 100,那么思路二更快,但是单词数这么少的情况下对性能的提升是十分有限的。因此还是采用思路一。

描述你改进的思路

改进一

  • 将词频统计和词组统计解耦合,分成了 countWordNumcountPhraseNum 两个函数,可以分别调用。在使用单个功能时,避免了对另一功能的额外调用。以此提升性能。
    优化后

改进二

  • 不对 键-值 对进行排序,对map直接进行遍历,找到频次最高的词组。
  • 无需对map排序,直接对map遍历,每遍历一次,找到频次最高的词组,然后将该词组置为负数。
  • 优点:资源开销小,算法性能高。
  • 经过测试,性能明显提高。

展示性能分析图和程序中消耗最大的函数

  • 改进前

1092889-20181010231055122-1239460830.png

  • 改进后

1092889-20181010222209703-468670204.png

  • 如图所示,消耗最大的函数为countWordNum(),改进后,性能有了一定的提升

单元测试

展示出项目部分单元测试代码,并说明测试的函数,构造测试数据的思路
序号 | 测试用例 |测试对象 | 测试意图 |测试结果
---|---|---|---|---
1 |文件名输入错误|readFile(inputFileName, charBuf, linesBuf)|测试读取文件函数|返回false,通过
2 |文件名输出错误|outputToFile(characterCount, wordCount, lineCount, outputFileName, topX)|测试输出文件函数|返回false,通过
3 |一篇论文测试|countCharNum(charBuf)|测试字符统计功能|通过
4 |一篇论文测试|countWordNum(linesBuf,weightValue)|测试单词统计功能|通过
5 |一篇论文测试|countWordNum(linesBuf, weightValue)|测试当加入权重时单词个数统计是否影响|通过
6 |多个词组测试|countTopXWord(topX)|测试无权重单词词频统计功能|通过
7 |多个词组测试|countWordNum(linesBuf, weightValue)|测试有权重单词词频统计功能|通过
8 |多篇论文测试|countPhraseNum(linesBuf, 0, 2)|测试词组统计功能|符合字典序
9 |更多词组测试|countLineNum(linesBuf)|测试行数统计功能|通过
10 |修改词组形式|countTopXWord(10))|文本为 cvpr2018 官网爬取结果,测试所有功能|迭代器崩溃,更改后通过
11 |增加特殊用例测试|count.countTopXPhrase(10)|测试单词之间有多个分隔符的词组|通过
12 |单个特殊用例测试|topXPhrase = count.countTopXPhrase(10)|测试单词之间有不合法单词的词组|输出为0,通过

其中,7号测试用例的代码,测试有权重单词词频统计功能:

TEST_METHOD(TestMethod7)    //测试有权重单词词频统计功能
        {
            int weightValue = 1;
            int topX = 10;
            const char* inputFileName = "../WordCountTest/input5.txt";
            string charBuf;
            vector<string> linesBuf;
            Assert::AreEqual(FileIO::readFile(inputFileName, charBuf, linesBuf), true);
            Count count;
            Assert::AreEqual(count.countWordNum(linesBuf, weightValue), 11);
            vector<map<string, int>::iterator> topXWord = count.countTopXWord(topX);
            Assert::AreEqual(topXWord[0]->first, string("abcd"));
            Assert::AreEqual(-topXWord[0]->second, 31);
            Assert::AreEqual(topXWord[1]->first, string("abce"));
            Assert::AreEqual(-topXWord[1]->second, 10);
            Assert::AreEqual(topXWord[2]->first, string("abcf"));
            Assert::AreEqual(-topXWord[2]->second, 10);
            Assert::AreEqual(topXWord[3]->first, string("abcg"));
            Assert::AreEqual(-topXWord[3]->second, 10);
            Assert::AreEqual(topXWord[4]->first, string("asda"));
            Assert::AreEqual(-topXWord[4]->second, 3);
            Assert::AreEqual(topXWord[5]->first, string("abch"));
            Assert::AreEqual(-topXWord[5]->second, 1);
        }

12号测试用例,测试是否存在不合法词组,增强程序鲁棒性:

TEST_METHOD(TestMethod12)   //测试单词之间有不合法单词的词组
        {
            const char* inputFileName = "../WordCountTest/input10.txt";
            string charBuf;
            vector<string> linesBuf;
            Assert::AreEqual(FileIO::readFile(inputFileName, charBuf, linesBuf), true);
            Count count;
            Assert::AreEqual(count.countPhraseNum(linesBuf, 0, 2), 4);
            vector<map<string, int>::iterator> topXPhrase = count.countTopXPhrase(10);
            Assert::AreEqual(topXPhrase[0]->first, string("delicious apple"));
            Assert::AreEqual(-topXPhrase[0]->second, 1);
        }

测试结果以及代码覆盖率附图

  • 由于添加了附加功能,而附加功能并未纳入单元测试的范畴,故测试率有一定降低。

1092889-20181010231528474-1032673243.png

1092889-20181010231819572-1252495393.png

贴出Github的代码签入记录

陈俞辛:

1092889-20181010233010592-1811541186.png

1092889-20181010233023117-628942229.png

1092889-20181010233029598-2040427338.png

周政演:
1092889-20181010233132111-278207599.png
1092889-20181010233136590-1681997176.png

遇到的代码模块异常或结对困难及解决方法

问题描述

  1. 爬虫部分,出现爬取导的内容乱码的问题。
  2. 在做单元测试时,不了解需要测试部分的函数功能、接受参数、返回值、调用方式等等;
  3. 在阅读的代码来了解模块的接口时,出现了一些困难,又正值国庆,两个人没有办法面对面的沟通。

做过哪些尝试

  1. 上网查找正确编码的方式,使用 UTF-8 编码。
  2. 由俞辛写出详细的接口说明,介绍有关功能、参数等,政演对函数进行单元测试。
  3. 和队友详细介绍单元测试测出的问题,帮助队友改进源代码
  4. 在国庆期间,每天晚上固定一段时间的电话交流,反馈问题以及制定接下来的任务。(家里人一度认为有了对象)

是否解决

  1. 解决
  2. 解决
  3. 解决

有何收获

  1. 了解了爬虫相关的编码问题的解决策略
  2. 在和队友沟通中发现,分工并不是那么简单,若是没有合理到位的沟通,没有把接口等信息描述清的话,一加一或许未必大于二,甚至会小于二。幸亏及时预见了接口说明的重要性,在接口说明方面下了大的功夫,对各个接口详细报告,实现了单元测试的代码,达到了一加一大于二的效果。
  3. 当局者迷,旁观者请。有时候自己也未能发现代码中的bug,代码看似完美,实则需要经过多方的检验。而在编码功能不繁重的情况下,若是二人编码,编码功能存在耦合,则编码交互带来的效率损耗很可能大于独自编码。所以,一人主要负责编码,一人主要负责单元测试,适当地兼顾了结对编程的优点,又规避了其缺点,做到相互裨补缺漏、相得益彰。
  4. 一个人很难 push 整个作业,两个人相互扶持,相互沟通,才能很好的完成任务。重中之重就是沟通,只有沟通才能解决问题。

评价队友

值得学习的地方

极强的责任感、精益求精。而且行动力强。所以在合作时,很有1+1>2的感觉。

需要改进的地方

工作起来不要命(让我缓缓)

学习进度条

第N周新增代码(行)累计代码(行)本周学习耗时(小时)累计学习耗时(小时)重要成长
1686866python字符处理复习、爬虫学习
278146713java爬虫学习
3194340619单元测试设计

PSP表格记录

PSP2.1header 2预估耗时(分钟)实际耗时(分钟)
Planning计划3530
· Estimate·估计这个任务需要多少时间155
Development开发6451220
· Analysis需求分析(包括学习新技术)4080
· Design Spec· 生成设计文档40120
· Design Review· 设计复审1030
· Coding Standard· 代码规范 (为目前的开发制定合适的规范)2030
· Design· 具体设计120180
· Coding· 具体编码6001200
· Code Review· 代码复审30180
· Test·测试(自我测试,修改代码,提交修改)240420
Reporting报告245145
· Test Repor· 测试报告240120
· Size Measurement· 计算工作量55
· Postmortem & Process Improvement Plan· 事后总结, 并提出过程改进计划2020
合计22653785

转载于:https://www.cnblogs.com/vancasola/p/9769732.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值