毕业设计简述

鉴于京东淘宝的前端设计禁止爬虫的抓取,准备制作一个非常缩水的系统来应付毕业,老天保佑后添加的中文分词器不捅娄子。

先简要列出系统操作流程,再详细分析每一步实现所需进行的工作。


我们的目的是找到电子商务网站上某商品的用户评价中,与我们输入的检测文档相似性最高的那条评价信息,以此来识别出某类用户。(我们假设刷评价的用户使用的评价语言都差不多,那我们输入一段标准刷评价评论,系统就能够找到目前商品中与该评论的说话方式类似的一条评价,以此来识别出”骗子“)所以系统需要两类信息,一个是系统外输入进去的”检测文档“,另一个是电商网站上的”评论信息“。问题的关键是获取某商品的所有”评论信息“。

困难出现了。按照老师的设想,用户只需要提交想要分析的网站顶级url即可,比如www.jd.com而无需自己寻找到某个特定商品的url,以此来分析京东所有的商品。但是京东的网站采用的是AJAX?(ajax能够完全避开nutch爬虫的抓取,每一页商品的评价信息都是在用户点击页码按钮之后,服务器推送过来,但是进入新页面之后浏览器中该页面的url不变。所有的评论都是#comments形式存在,这样nutch是无法抓取到页面信息,也就无法进行后续查询。)无奈只好利用京东网站上url的规律来依次生成每一页商品评价的url,以此获取信息。也就是说,最终的毕设只分析一个商品,而不是京东网站上所有的商品。


为了得到某个商品的评论,首先要确定的是我们要分析哪个商品

用户提交要抓取的商品评价URL,例如某一个乐扣保鲜盒:http://club.jd.com/review/560573-0-1-0.html 

好,现在该商品的所有评论信息我们都能定位了,我们下一步需要将网页html语言写就的商品评论信息从标签和其他干扰信息中解放出来,获取纯粹的商品评论。比较好的解决方法便是将这些信息导入数据库中。

分析一下,我们需要如下几个数据库:

商品,Product(product_id,product_name,product_url)

用户,User(user_id,user_name,user_role,user_url) user_role是会员级别,级别文字有该链接 http://help.360buy.com/help/question-57.html               

用户评论,Discussion(discuss_id,discuss_content,discuss_url,product_id,user_id,purchase_date)由商品id和用户id共同确定一个discussion,这里有评价的具体内容

得到discuss_content之后,使用MoreLikeThis算法找到与测试文档相似的discuss_content(及其对应的用户)

下面我们要做的是,如何得到这三个关键的数据库信息。

对于Product,product_id是最容易获取的信息,在该链接中http://club.jd.com/review/560573-0-1-0.html  560573即为这个保鲜盒的product_id。原理如老师的代码中Environment.parseProjName()方法

//从Url中获得该网页所属项目
	  public static String parseProjName(String url){
		  int inameStart = url.indexOf("//"); 
		  int inameMid = url.indexOf(".", inameStart+2);
		  int inameEnd = url.indexOf(".", inameMid+1);
		  
		  if ((inameStart < inameMid)&&(inameMid<inameEnd)){
			 if (url.substring(inameMid+1,inameEnd).equalsIgnoreCase("codeplex")){
				//如果该url的第二个单词是codeplex,说明该网页来自codeplex,此时第一个单词为项目名
				return url.substring(inameStart+2, inameMid).trim().toLowerCase();
			 }
			 else
				 return null;
		  }
		  else
			  return null;
	  }
todotask-1 parseProd ID(string url);

http://club.jd.com/review/560573-0-1-0.html中截取"review/"与”-0“之前的”560573“,即为product_id。(product_name似乎意义不大,暂时搁置

product_url也需要进行拼凑产生,例如:http://item.jd.com/560573.html有了product_id之后,该url比较容易产生。(是否进一步获取该商品名?比如”乐扣乐扣礼盒装2件套LLG214S001“)


  对于User数据库各信息的获取,参考以下代码。

按照老师代码的思想,我们的处理流程是这样的:输入项目名称(product_id),用标准分析器分析一下“url”文件找到评价页面(代码中为讨论页面hits),在这个页面中找到“金牌会员”等role的位置,利用外链todotask-2 找到user的信息

 对该链接进行分析http://club.jd.com/userreview/27276113-1-1.html,27276113即为user_id,该url即为user_url。而user_name,user_role问题与Product中商品名问题一样待确认。而user_url是抓取到的页面代码中有的url,可以获取到。


public static boolean ParaseProjUser(String proj_name,int proj_id) {   
      try {
    	  QueryParser queryParser = new QueryParser("url", new StandardAnalyzer());  
    	  Query query = queryParser.parse(proj_name+" AND team AND view");    //此处的team和view应该换为“club review?!”(京东全部商品评价的第37页url: http://club.jd.com/review/560573-0-37-0.html)
    	  Hits hits = searcher.search(query);  
    	  if (hits.length()>0) {   
    		  Document doc = hits.doc(0);   
              HitDetails detail = new HitDetails(doc.getField("segment").stringValue(),doc.getField("url").stringValue());
              String pagecontent = segments.getParseText(detail).getText();//得到内容
             
              int iCoordinators = pagecontent.indexOf("Coordinators");//这些东西对应到我们系统里都是商品的买家卖家,无特别意义
              int iDevelopers = pagecontent.indexOf("Developers");
              int iEditors = pagecontent.indexOf("Editors");
              int iFollower = pagecontent.indexOf("Follower");
              
              Outlink[] outlink=segments.getParseData(detail).getOutlinks();//是否要识别出“金牌银牌会员”等待定,似乎有一定困难
              for(int j=0; j<outlink.length;j++){
            	//System.out.println(outlink[j].getToUrl()+":"+outlink[j].getAnchor());
            	  String usrname = outlink[j].getAnchor();
            	  if (outlink[j].getToUrl().indexOf("site/users/view")>0){
            		  Fields fd = new Fields();
            		  fd.add("user_name", usrname);
            		  fd.add("user_url", outlink[j].getToUrl());
            		  User usr = new User(fd);
            		  Fields fd1 = new Fields();
            		  fd1.add("user_id", usr.getUserID());
            		  fd1.add("proj_id", proj_id);
            		  int iusrname = pagecontent.indexOf(usrname);
            		  if ((iusrname>iCoordinators)&&(iusrname<iDevelopers))
            			  fd1.add("part_role", "Coordinators");
            		  else if (iusrname<iEditors)
            			  fd1.add("part_role", "Developers");
            		  else if (iusrname<iFollower)
            			  fd1.add("part_role", "Editors");
            		  else
            			  fd1.add("part_role", "Followers");
            		  Participant part = new Participant(fd1);
            	  }
              }//end for j
              return true;
    	  }//end if
    	  else 
    		  return false;
      }//end try 
      catch (Exception ex) {
          ex.printStackTrace();
          return false;
      }//end catch
    }//end ParaseProjuser

对于Discussion(discuss_id,discuss_content,discuss_url,product_id,user_id,purchase_date)问题较多。

discuss_id,尚未想好是否需要此字段

        discuss_content,问题的关键,建立此数据库的主要目的为获取该信息。

discuss_url,例子比如:http://club.jd.com/repay/560573_fd4854bb-691f-4ac3-a1e8-1a0554201952_1.html 此链接中含有商品id,但url规律很难识别,此url无法通过拼凑方式产生。但是该url在页面呈现形式是日期,也就是锚文本。是否可以利用锚文本获得url?与user数据库的建立问题一直,即Outlink问题,需要研究。

        product_id,该信息可以从product数据库中获取

user_id,同样可以获取到

purchase_date,为discuss的url中的锚文本,目前也存在这个问题,即页面上的信息是否能定点抓取到?

对于content,参考老师的代码 ParaseProjDisc(Document doc)啊该代码部分示例如下,原文较长属于nutchparsediscuss类

//下面的代码插入一个讨论序列
    	            			  fd3 = new Fields();
    	            			  fd3.add("disc_id", disc.getDiscID());
    	            			  fd3.add("user_id", userid);
    	            			  fd3.add("discpart_seq", discseq);
    	            			  if(endIndex>beginIndex) 
    	            				  strcontent=pagecontent.substring(beginIndex, endIndex);
    	            			  else
    	            				  strcontent="";
    	            			  if (strcontent.length()>9999)
    	            				  strcontent = strcontent.substring(1, 9999);
    	            			  //strcontent=strcontent.replaceAll("[\\\"\']", " ");
    	            			  fd3.add("discpart_content", strcontent);
    	            			  //System.out.println(pagecontent.substring(timebeginIndex, beginIndex));
    	            			  latestdate=Enviroment.DiscussDate(new String(pagecontent.substring(timebeginIndex, beginIndex).getBytes(),"UTF-8"),latestdate);
    	            			  fd3.add("discpart_date", latestdate);
    	            			  DiscPart dscp = new DiscPart(fd3,true);
    	            			  discseq++;
    	            			//上面的的代码插入一个讨论序列

获取完所有的数据库之后,对discuss进行索引(content部分),详见indexDiscussion

int totalrows = ExecuteStmt.Gettablerows("discpart");
			System.out.println("开始生成Discussion的索引,开始于:"+Enviroment.GetSystemDateTime());
			System.out.println(totalrows);
			
			for (int i=0;i<=totalrows/1000;i++){
				fds = ExecuteStmt.getResultset("Select * from discpart limit "+i*1000+","+(i+1)*1000+";");//sql limit 如果给定两个参数,第一个参数指定第一个返回记录行的偏移量,第二个参数指定返回记录行的最大数目。初 始记录行的偏移量是 0(而不是 1)
				for(int j=0;j<1000;j++){
					Document doc = new Document();
					// Field Text(String name, String value, boolean storeTermVector)
					doc.add(new Field("discpart_id",String.valueOf(fds[j].getValuebyName("discpart_id")),Field.Store.YES, Field.Index.NO));
					doc.add(new Field("disc_id",String.valueOf(fds[j].getValuebyName("disc_id")),Field.Store.YES, Field.Index.NO));
					doc.add(new Field("user_id",String.valueOf(fds[j].getValuebyName("user_id")),Field.Store.YES, Field.Index.NO));
					doc.add(new Field("discpart_seq",String.valueOf(fds[j].getValuebyName("discpart_seq")),Field.Store.YES, Field.Index.NO));
					doc.add(new Field("discpart_date",String.valueOf(fds[j].getValuebyName("discpart_date")),Field.Store.YES, Field.Index.NO));
					doc.add(new Field("discpart_content",String.valueOf(fds[j].getValuebyName("discpart_content")),Field.Store.YES, Field.Index.ANALYZED,Field.TermVector.YES));
					
					writer.addDocument(doc);
				}//end for j

到此处,基本工作已经完毕,只剩下输入测试文档来寻找相似评价了。

问题多多唉


  

以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值