movielens数据集介绍及使用python简单处理

0 前言

个性化推荐中,电影推荐研究时常使用movielens上的数据集。该网站的数据集主要分两部分,

一是用于推进最新研究进展的数据集。当前最新的是发布于2019年12月份的25M数据集。

二是用于高校、组织科研的数据集。该类数据集按其是否带有标签、时间先后、数据集大小分成6种数据集。

想当时(17年)那会学术论文常见的都是使用1M数据集(2003年发布的)以及10M数据集(2009年发布的),如果是做带标签标记的电影推荐一般是tag-genome数据集(2014年发布的)。数据集中的命名ml为movielens缩写。

1 数据集解读-举例

每个数据集除了大致介绍外,其对应位置还有有一个readme文件,是该数据集的详细介绍。

1.1 1M数据集

1M数据集有rating.dat、movies.dat、users.data三份数据集。ratings是6040位用户对3900部电影的评分数据(共计1,000,209)。

1.1.1 rating文件

rating.dat文件存放的是用户对电影的评分信息,改文件中每条记录形式:UserID::MovieID::Rating::Timestamp,即用户id、电影id、该用户对此电影的评分值、时间戳。

  • - 用户id:从1到6040
  • - 电影id: 从1到3952
  • - rating: 从1-5的整数

readme文档中介绍该文件中的每个用户至少都有20个评分(即每个用户至少对20部不同电影进行了打分)。但当时,我做的分析,好像并不像官方文档说的这样,并且,数据都有缺失部分。

1.1.2 users.dat文件

users.dat文件存放的是用户的相关信息,包括性别、年龄、职业,该文件中每条记录形式:UserID::Gender::Age::Occupation::Zip-code。

  • - 性别(gender)的值为M和F。
  • - 年龄(age)分成7组

  • - 职业(occupation)分成了21中类别

1.1.3 movies.dat文件

movies.dat文件存放的是电影的相关信息,该文件中每条记录形式:MovieID::Title::Genres。

  • - title是电影“标题”,包括电影名称及发布日期
  • - genres是电影类型:包括动作喜剧等18种电影类型

1.2 100k数据集

100k数据集有点不同,其用户属性是单独一个文件。另外还有u1到u5五份数据(五折交叉验证,已经给分好了)。

该数据集包括了943位用户对1682部电影的评分信息(总共100,000),评分也是1-5的整数

1.2.1 100k数据集文件介绍

  • - u.data文件包含了100,000条评分信息,每条记录的形式:user id | item id | rating | timestamp.(分隔符是一个tab)
  • - u1.base和u1.test是一组训练集和测试集,u1到u5是把u.data分成了5份(用于五折交叉验证实验)。可以通过运行mku.sh重新生成一组u1到u5(原来的会被覆盖)
  • - ua和ub是把u.data分成了两份。每一份又分成了训练集和测试集。同样可以通过mku.sh重新生成一组ua和ub
  • - mku.sh文件, 每运行一次,就会随机生成一组u1--u5、ua、ub的数据集。(所以非必要不要用,不然每次实验的数据都不一样)

2 python简要分析处理movielens数据集-举例

- win10 + python3.8

- jupyter版

- pycharm版

2.1 100k数据集

2.1.1 粗略查看数据信息

 

2.1.2 去掉occupation为none的记录

nones = u_user[u_user['occupation'] == 'none']
u_user = u_user.drop(nones.index)

2.1.3 gender中的m、f映射成0、 1

2.1.4 对age进行分段,映射成7组

2.1.5 occupation字段数值化

2.1.6 zip_code提取前3位

2.1.7 处理好的数据保存,留待后续直接使用

u_user.to_csv('D:/d/python/u_result.csv')

3 其它

3.1 2.1的实例源码

- jupyter版

- pycharm版

3.2 2.1的pycharm版

# !/usr/bin/env python
# -*- coding: utf-8 -*-
# __author__ = 'QiuZiXian'  http://blog.csdn.net/qqzhuimengren/   1467288927@qq.com
# @time          :2020/9/14  0:07
# @abstract    :

import pandas as pd


# 粗略查看数据信息
u_data = pd.read_csv('D:/d/python/ml-100k/u.data')
u_genre = pd.read_csv('D:/d/python/ml-100k/u.genre')
u_info = pd.read_csv('D:/d/python/ml-100k/u.info')
#u_item = pd.read_csv('D:/d/python/ml-100k/u.item')
u_occupation = pd.read_csv('D:/d/python/ml-100k/u.occupation')
u_user = pd.read_csv('D:/d/python/ml-100k/u.user')

print(u_data.head())
print(u_user.head())


# 去掉occupation为none的记录
nones = u_user[u_user['occupation'] == 'none']
u_user = u_user.drop(nones.index)

# gender中的m、f映射成0、 1
u_user['gender'] = u_user['gender'].map({'M':1, 'F':0})
print(u_user.head())


# 对age进行分段,映射成7组
def age_map(age):
    if age >= 1 and age <= 7: return 1
    if age >= 8 and age <=16: return 2
    if age >=17 and age <= 29: return 3
    if age >= 30 and age <= 39: return 4
    if age >= 40 and age <= 49: return 5
    if age >= 50 and age <= 59: return 6
    if age >= 60: return 7

u_user['age'] = u_user['age'].apply(lambda age : age_map(age))
print(u_user.head())

#  occupation字段数值化
def occupations_map(occupation):
    occupations_dict = {'technician': 1,
     'other': 0,
     'writer': 2,
     'executive': 3,
     'administrator': 4,
     'student': 5,
     'lawyer': 6,
     'educator': 7,
     'scientist': 8,
     'entertainment': 9,
     'programmer': 10,
     'librarian': 11,
     'homemaker': 12,
     'artist': 13,
     'engineer': 14,
     'marketing': 15,
     'none': 16,
     'healthcare': 17,
     'retired': 18,
     'salesman': 19,
     'doctor': 20}
    return occupations_dict[occupation]
u_user['occupation'] = u_user['occupation'].apply(lambda occupation : occupations_map(occupation))
print(u_user.head())
#  zip_code提取前3位
u_user['zip_code'] = u_user['zip_code'].apply(lambda zip_code : str(zip_code)[:3])
# 处理好的数据保存,留待后续直接使用
u_user.to_csv('D:/d/python/u_result.csv')

 

  • 17
    点赞
  • 164
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
使用Python实现基于Movielens数据集的协同过滤算法推荐,可以按照以下步骤进行: 1. 下载Movielens数据集,并将其转换为pandas DataFrame格式: ```python import pandas as pd # 读取数据集 ratings_data = pd.read_csv('ratings.csv') movies_data = pd.read_csv('movies.csv') # 数据预处理 ratings_data = ratings_data.drop(['timestamp'], axis=1) movies_data = movies_data.drop(['genres'], axis=1) # 合并数据 movie_ratings_data = pd.merge(ratings_data, movies_data, on='movieId') ``` 2. 使用scikit-learn库的train_test_split函数将数据集划分为训练集和测试集: ```python from sklearn.model_selection import train_test_split train_data, test_data = train_test_split(movie_ratings_data, test_size=0.2) ``` 3. 计算电影之间的相似度: ```python # 构建电影评分矩阵 movie_ratings_matrix = train_data.pivot_table(index='userId', columns='title', values='rating') # 计算电影之间的相似度 from sklearn.metrics.pairwise import cosine_similarity movie_similarity_matrix = pd.DataFrame(cosine_similarity(movie_ratings_matrix.fillna(0)), index=movie_ratings_matrix.index, columns=movie_ratings_matrix.index) ``` 4. 使用相似度矩阵为用户推荐电影: ```python # 定义推荐函数 def recommend_movies(user_id, top_n): # 获取用户没有评过分的电影 user_unrated_movies = movie_ratings_data[movie_ratings_data['userId'] == user_id][['movieId', 'title']].drop_duplicates() user_rated_movies = train_data[train_data['userId'] == user_id][['movieId', 'title']] user_unrated_movies = pd.merge(user_unrated_movies, user_rated_movies, on=['movieId', 'title'], how='left', indicator=True) user_unrated_movies = user_unrated_movies[user_unrated_movies['_merge'] == 'left_only'][['movieId', 'title']] # 计算每部电影的预测评分 movie_ratings = pd.DataFrame(columns=['movieId', 'predicted_rating']) for movie_id in user_unrated_movies['movieId']: similar_movies = movie_similarity_matrix[movie_id].sort_values(ascending=False)[1:6] similar_movie_ratings = train_data[train_data['movieId'].isin(similar_movies.index)] similar_movie_ratings = similar_movie_ratings.groupby(['movieId'])['rating'].mean() predicted_rating = (similar_movie_ratings * similar_movies).sum() / similar_movies.sum() movie_ratings = movie_ratings.append({'movieId': movie_id, 'predicted_rating': predicted_rating}, ignore_index=True) # 根据预测评分为用户推荐电影 recommended_movies = pd.merge(movie_ratings, movies_data, on='movieId', how='left') recommended_movies = recommended_movies.sort_values('predicted_rating', ascending=False).head(top_n) return recommended_movies[['title', 'predicted_rating']] ``` 以上就是基于Movielens数据集的协同过滤算法推荐的Python实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

PythonJavaC++go

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值