pyspark 搜索引擎日志分析

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

from re import A
from unittest import result
from pyspark import SparkConf,SparkContext, StorageLevel
import json
import jieba
# /opt/module/spark/bin/spark-submit /opt/Code/searchSouGou.py

def context_jieba(data):
    seg = jieba.cut_for_search(data)
    l = list()
    for word in seg:
        l.append(word)
    return l

def filter_words(data):
    return data not in ['谷','帮','客']

def append_words(data):
    if data == '传智播': data = '传智播客'
    if data == '院校': data  = '院校帮'
    if data == '博学': data = '博学谷'
    return (data,1)
def extract_user_and_word(data):
    # 传入数据的是元组 (1,我喜欢传智播客)
    user_id = data[0]
    content = data[1]
    words = context_jieba(content)
    return_list = list()
    for word in words:
        if filter_words(word):
            return_list.append((user_id + '_' + append_words(word)[0],1))
    return return_list

if __name__ == '__main__':
    conf = SparkConf().setAppName("SouGou").setMaster("local[*]")
    sc = SparkContext(conf=conf)
    file_rdd = sc.textFile('file:///opt/Data/SogouQ.txt')
    # TODO1 需求1:对用户搜索的关键词分析
    split_rdd = file_rdd.map(lambda line:line.split('\t'))
    split_rdd.persist(StorageLevel.DISK_ONLY)
    context_rdd = split_rdd.map(lambda x:x[2])
    words_rdd = context_rdd.flatMap(context_jieba)
    filter_rdd = words_rdd.filter(filter_words)
    final_words_rdd = filter_rdd.map(append_words)
    result = final_words_rdd.reduceByKey(lambda a,b:a+b).sortBy(lambda x:x[1],ascending=False,numPartitions=1).take(5)
    print('需求1结果: ',result)
    # TODO2 对用户和关键词组合分析
    user_content_rdd = split_rdd.map(lambda x:(x[1],x[2]))
    user_word_with_one_rdd = user_content_rdd.flatMap(extract_user_and_word)
    result = user_word_with_one_rdd.reduceByKey(lambda a,b:a+b).\
        sortBy(lambda x:x[1],ascending=False,numPartitions=1).take(5)
    print('需求2结果: ',result)
    #TODO3 对热门搜索时间段进行统计
    time_rdd = split_rdd.map(lambda x:x[0])
    hour_with_one_rdd = time_rdd.map(lambda x:(x.split(':')[0],1))
    result = hour_with_one_rdd.reduceByKey(lambda a,b:a+b).\
        sortBy(lambda x:x[1],ascending=False,numPartitions=1).collect()
    print('需求3结果:',result)

在这里插入图片描述

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您想了解基于pyspark的新闻数据分析方案,我可以为您提供一些思路和建议。 首先,pyspark是一个开源的大数据处理框架,它可以在分布式计算平台上进行数据处理和分析,具有高可扩展性和高性能。在使用pyspark进行新闻数据分析时,可以考虑以下几个步骤: 1. 数据采集和清洗:首先需要从多个数据源中采集新闻数据,并对数据进行清洗和去重处理,以保证数据的准确性和完整性。 2. 数据存储和处理:将清洗后的数据存储到分布式存储系统中,如HDFS或S3,然后使用pyspark进行数据处理和分析,包括数据聚合、统计分析、文本挖掘等。 3. 数据可视化和展示:将分析结果可视化展示出来,可以使用pyspark的可视化工具,如matplotlib和seaborn,也可以使用其他的可视化库,如D3.js和Tableau等。 在进行新闻数据分析时,可以考虑以下几个方面: 1. 新闻热度分析:通过统计新闻的阅读量、评论量、分享量等指标,来分析新闻的热度趋势和热门话题。 2. 新闻情感分析:通过对新闻文本进行情感分析,来分析新闻的正面、负面、中性情感分布,以及不同主题下的情感变化。 3. 新闻主题分析:通过对新闻文本进行主题建模和聚类分析,来发现新闻的主题和热点,以及不同主题下的关键词和趋势。 以上是一些基于pyspark进行新闻数据分析的思路和建议,希望能够对您有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值