spark【例子】倒排索引(InvertedIndex)

例子描述:

【倒排索引(InvertedIndex)】

这个例子是在一本讲Spark书中看到的,但是样例代码写的太Java化,没有函数式编程风格,于是问了些高手,教我写了份函数式的倒排索引。 
这段代码,我在刚开始学的时候很难想到二次拆分数据,所以这个难点挺不错的。

原始数据 
cx1|a,b,c,d,e,f 
cx2|c,d,e,f 
cx3|a,b,c,f 
cx4|a,b,c,d,e,f 
cx5|a,b,e,f 
cx6|a,b,c,d 
cx7|a,b,c,f 
cx8|d,e,f 
cx9|b,c,d,e,f

结果数据 
d|cx1,cx2,cx4,cx6,cx8,cx9 
e|cx1,cx2,cx4,cx5,cx8,cx9 
a|cx1,cx3,cx4,cx5,cx6,cx7 
b|cx1,cx3,cx4,cx5,cx6,cx7,cx9 
f|cx1,cx2,cx3,cx4,cx5,cx7,cx8,cx9 
c|cx1,cx2,cx3,cx4,cx6,cx7,cx9


代码片段:

/* 倒排索引InvertedIndex */

val source = Source.fromFile("E:/cxsvn/txt/dp.txt").getLines.toArray
val cxRDD0 = sc.parallelize(source)                        /* spark单机读取数据 */

cxRDD0.flatMap {
  lines =>
    val line = lines.split("\\|", -1)                      /* 拆分数据,以竖杠为拆分条件 */
    line(1).split(",", -1).map {                           /* 再对拆分后的数据,进行第二次拆分 */
      v =>
        (v, line(0))                                       /* 拼接数据 */
    }
}.groupByKey()                                             /* 分组 */
.sortBy(_._1,true)                                         /* 排序 */
.foreach(x => println(s"${x._1}|${x._2.mkString(",")}"))   /* 格式化输出 */
   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
0
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
倒排索引是一种常用的数据结构,它将词汇表中每个单词与包含该单词的文档列表关联起来,以便实现文本搜索和相关性排序。在Spark中,我们可以使用RDD来实现倒排索引。下面是一个简单的示例代码: ```python from pyspark import SparkConf, SparkContext conf = SparkConf().setAppName("InvertedIndex") sc = SparkContext(conf=conf) # 定义输入数据 data = [ ("doc1", "hello world"), ("doc2", "hello spark"), ("doc3", "hello hadoop"), ("doc4", "hello world") ] # 创建RDD并切分单词 words_rdd = sc.parallelize(data).flatMap(lambda x: [(word, x[0]) for word in x[1].split()]) # 对单词进行分组 grouped_rdd = words_rdd.groupByKey() # 构建倒排索引 inverted_index = grouped_rdd.map(lambda x: (x[0], list(x[1]))) # 输出结果 for pair in inverted_index.collect(): print(pair) ``` 在这个示例中,我们首先定义了输入数据。然后,我们使用`flatMap`操作将每个文档中的单词与文档ID关联起来,并创建一个包含单词和文档ID对的RDD。接下来,我们使用`groupByKey`操作对单词进行分组,并创建一个包含每个单词及其对应文档ID列表的RDD。最后,我们使用`map`操作将每个单词和其对应的文档ID列表构建成一个键值对,并输出结果。 需要注意的是,该实现方法可能会存在一些性能瓶颈,特别是在处理大规模数据时。为了提高性能,我们可以使用更高级别的API,如DataFrame和DataSet,或者使用分布式数据库,如HBase、Cassandra等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值