pyspark

from pyspark import SparkContext,SparkConf  
import os  
os.environ['PYSPARK_PYTHON']='/usr/bin/python3.5'  
os.environ['JAVA_HOME'] = '/apps/java'  
def age_analyse(user_data):  
    # 用"|"分割符分割每一行的数据,然后将数据返回到user_fields  
    user_fields = user_data.map(lambda line: line.split("|"))  
    # 统计总的用户数  
    num_users = user_fields.map(lambda fields: fields[0]).count()  
    # 统计性别的种类数,distinct()函数用来去重。  
    num_genders = user_fields.map(lambda fields: fields[2]).distinct().count()  
    # 统计职位种类数  
    num_occupations = user_fields.map(lambda fields: fields[3]).distinct().count()  
    # 统计邮政编码种类数  
    num_zipcodes = user_fields.map(lambda fields: fields[4]).distinct().count()  
    # 打印统计的这些信息  
    print("Users: {0}, genders: {1}, occupations: {2}, ZIP codes: {3}".format(num_users, num_genders, num_occupations, num_zipcodes))  
    # 统计用户年龄  
    ages = user_fields.map(lambda x: int(x[1])).collect()  
    # 通过python中的matplotlib生成图表提供给分析师分析  
    import matplotlib.pyplot as plt  
    plt.hist(ages, bins=20, color='lightblue', normed=True)  
    fig = plt.gcf()  
    fig.set_size_inches(16, 10)  
    plt.show()  
if __name__ == "__main__":  
    sc = SparkContext("local[2]", "test")  
    # 加载HDFS上面的用户数据  
    user_data = sc.textFile("hdfs://localhost:9000/input/pyspark1/ml-100k/u.user")  
    # 打印加载的用户信息第一条  
    print(user_data.first())  
    age_analyse(user_data)  

通过对用户数据处理,获得用户信息中的年龄。然后对年龄进行统计并使用Python中的图形框架Matplotlib生成柱状图,最后通过柱状图分析观看电影的观众年龄分布趋势。具体代码如下:

处理二(用户职位统计分析)

16.在pyspark1下,新建python file。

view plain copy
from pyspark import SparkContext,SparkConf  
import os  
os.environ['PYSPARK_PYTHON']='/usr/bin/python3.5'  
os.environ['JAVA_HOME'] = '/apps/java'  
def occupation_analyse(user_data):  
    # 用"|"分割符分割每一行的数据,然后将数据返回到user_fields  
    user_fields = user_data.map(lambda line: line.split("|"))  
    #处理职位那一列,通过类似MapReduce经典例子WordCount处理过程处理职位  
    count_by_occupation = user_fields.map(lambda fields: (fields[3], 1)).reduceByKey(lambda x, y: x + y).collect()  
    # 导入numpy模块  
    import numpy as np  
    # 获取用户职位,并作为柱状图的x轴数据显示  
    x_axis1 = np.array([c[0] for c in count_by_occupation])  
    # 获取用户的各个职位数,并作为y轴数据显示  
    y_axis1 = np.array([c[1] for c in count_by_occupation])  
    # 让x轴类别的显示按照y轴中每种职位的个数升序排序  
    x_axis = x_axis1[np.argsort(y_axis1)]  
    # y轴也是升序  
    y_axis = y_axis1[np.argsort(y_axis1)]  
    # 设置柱状图中x轴范围以及width  
    pos = np.arange(len(x_axis))  
    width = 1.0  
    # 将统计的职位信息使用matplotlib生成柱状图  
    from matplotlib import pyplot as plt  
    ax = plt.axes()  
    ax.set_xticks(pos + (width / 2))  
    ax.set_xticklabels(x_axis)  
    plt.bar(pos, y_axis, width, color='lightblue')  
    plt.xticks(rotation=30)  
    fig = plt.gcf()  
    fig.set_size_inches(16, 10)  
    plt.show()  
if __name__ == "__main__":  
    sc = SparkContext("local[2]", "test")  
    # 加载HDFS上面的用户数据  
    user_data = sc.textFile("hdfs://localhost:9000/input/pyspark1/ml-100k/u.user")  
    # 打印加载的用户信息第一条  
    print(user_data.first())  
    #age_analyse(user_data)  
    occupation_analyse(user_data)  

处理三(电影发布信息统计分析)

from pyspark import SparkContext,SparkConf  
import os  
os.environ['PYSPARK_PYTHON']='/usr/bin/python3.5'  
os.environ['JAVA_HOME'] = '/apps/java'  
conf=SparkConf().setMaster("local[2]").setAppName("movie_info_analyse")  
sc=SparkContext(conf=conf)  
#从HDFS中加载u.item数据  
movie_data = sc.textFile("hdfs://localhost:9000/input/pyspark1/ml-100k/u.item")  
#打印第一条数据,查看数据格式  
print(movie_data.first())  
#统计电影总数  
num_movies = movie_data.count()  
print("Movies: %d" % num_movies)  
#定义函数功能为对电影数据预处理,对于错误的年限,使用1900填补  
def convert_year(x):  
    try:  
        return int(x[-4:])  
    except:  
        return 1900 # there is a 'bad' data point with a blank year,which we set to 900 and will filter out later  
#使用"|"分隔符分割每行数据  
movie_fields = movie_data.map(lambda lines: lines.split("|"))  
#提取分割后电影发布年限信息,并做脏数据预处理  
years = movie_fields.map(lambda fields: fields[2]).map(lambda x:convert_year(x))  
#获取那些年限为1900的电影(部分为脏数据)  
years_filtered = years.filter(lambda x: x != 1900)  
#计算出电影发布时间与1998年的年限差  
movie_ages = years_filtered.map(lambda yr: 1998-yr).countByValue()  
#将年限差作为x轴,电影数量作为y轴作柱状图  
values = list(movie_ages.values())  
bins = movie_ages.keys()  
from matplotlib import pyplot as plt1  
plt1.hist(values, bins=list(bins), color='lightblue', normed=True)  
fig = plt1.gcf()  
fig.set_size_inches(16,10)  
plt1.show()  

 

处理四(用户评分统计分析)

view plain copy
from pyspark import SparkContext,SparkConf  
import numpy as np  
import os  
os.environ['PYSPARK_PYTHON']='/usr/bin/python3.5'  
os.environ['JAVA_HOME'] = '/apps/java'  
conf=SparkConf().setMaster("local[2]").setAppName("movie_info_analyse")  
sc=SparkContext(conf=conf)  
# 加载HDFS上面的用户数据  
user_data = sc.textFile("hdfs://localhost:9000/input/pyspark1/ml-100k/u.user")  
# 用"|"分割符分割每一行的数据,然后将数据返回到user_fields  
user_fields = user_data.map(lambda line: line.split("|"))  
# 统计总的用户数  
num_users = user_fields.map(lambda fields: fields[0]).count()  
#从HDFS中加载u.item数据  
movie_data = sc.textFile("hdfs://localhost:9000/input/pyspark1/ml-100k/u.item")  
#统计电影总数  
num_movies = movie_data.count()  
#从HDFS上面加载用户评分数据  
rating_data = sc.textFile("hdfs://localhost:9000/input/pyspark1/ml-100k/u.data")  
print(rating_data.first())  
#统计评分记录总数  
num_ratings = rating_data.count()  
print("Ratings: %d" % num_ratings)  
#使用"\t"符分割每行数据  
rating_data = rating_data.map(lambda line: line.split("\t"))  
#获取每条数据中的用户评分数集合  
ratings = rating_data.map(lambda fields: int(fields[2]))  
#获取最大评分数  
max_rating = ratings.reduce(lambda x, y: max(x, y))  
#获取最小评分数  
min_rating = ratings.reduce(lambda x, y: min(x, y))  
#获取平均评分数  
mean_rating = ratings.reduce(lambda x, y: x + y) / num_ratings  
#获取评分中位数  
median_rating = np.median(ratings.collect())  
#每位用户平均评分  
ratings_per_user = num_ratings / num_users  
#每位用户评了几场电影  
ratings_per_movie = num_ratings / num_movies  
#打印上面这些信息  
print("Min rating: %d" % min_rating)  
print("Max rating: %d" % max_rating)  
print("Average rating: %2.2f" % mean_rating)  
print("Median rating: %d" % median_rating)  
print("Average # of ratings per user: %2.2f" % ratings_per_user)  
print("Average # of ratings per movie: %2.2f" % ratings_per_movie)  
#获取评分数据  
count_by_rating = ratings.countByValue()  
#x轴的显示每个评分(1-5)  
x_axis = count_by_rating.keys()  
#y轴显示每个评分所占概率,总概率和为1  
y_axis = np.array([float(c) for c in count_by_rating.values()])  
y_axis_normed = y_axis / y_axis.sum()  
pos = np.arange(len(x_axis))  
width = 1.0  
#使用matplotlib生成柱状图  
from matplotlib import pyplot as plt2  
ax = plt2.axes()  
ax.set_xticks(pos + (width / 2))  
ax.set_xticklabels(list(x_axis))  
plt2.bar(pos, y_axis_normed, width, color='lightblue')  
plt2.xticks(rotation=30)  
fig = plt2.gcf()  
fig.set_size_inches(16, 10)  
plt2.show()  

处理五(用户总评分统计分析)

#获取用户评分次数和每次评分  
user_ratings_grouped = rating_data.map(lambda fields: (int(fields[0]),int(fields[2]))).groupByKey()  
#用户ID以及该用户评分总数  
user_ratings_byuser = user_ratings_grouped.map(lambda pair: (pair[0],len(pair[1])))  
#打印5条结果  
print(user_ratings_byuser.take(5))  
#生成柱状图  
from matplotlib import pyplot as plt3  
user_ratings_byuser_local = user_ratings_byuser.map(lambda pair:pair[1]).collect()  
print(user_ratings_byuser_local)  
plt3.hist(user_ratings_byuser_local, bins=200, color='lightgreen',normed=True)  
fig = plt3.gcf()  
fig.set_size_inches(16,10)  
plt3.show()  

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值