day3 基于回归模型的协同过滤推荐

如果我们将评分看做是一个连续的值而不是离散的值,那么就可以借助线性回归思想来预测目标用户对某物品的评分。其中一种实现策略被称为Baseline(基准预测)

Baseline:基准预测

Baseline设计思想基于以下假设:

  • 有些用户的评分普遍高于其他用户,有些用户的评分普遍低于其他用户。比如有些用户天生愿意给别人好评,心慈手软,比较好说话,而有的用户就比较苛刻,总是给较低的分
  • 一些物品的评分普遍高于其他物品,一些物品的评分普遍低于其他物品。比如一些物品一被生产便决定了它的地位,有的则比较受人们欢迎,有的则被人嫌弃

这个用户或物品普遍高于或低于平均值的差值,我们称为偏置(bias)

Baseline目标:

  • 找出每个用户普遍高于或低于其他人的偏置值b_{u}
  • 找出每件物品普遍高于或低于其他物品的偏置值b_{i}
  • 我们的目标也就是转化为寻找最优的b_{u}b_{i}

使用Baseline的算法思想预测评分的步骤如下:

  • 计算所有物品的平均评分μ(全局平均评分)
  • 计算每个用户评分与平均评分μ的偏置值b_{u}
  • 计算每个物品所接受的评分与平均评分μ的偏置值b_{i}
  • 预测用户对物品的评分:

                

 举个栗子:

        比如我们想通过Baseline来预测用户A对电影“阿甘正传”的评分,那么首先计算出整个评分数据集的平均评分μ是3.5分;而用户A是一个比较苛刻的用户,他的评分比较严格,普遍比平均评分低0.5分,即用户A的偏置值b_{u}是-0.5,;而电影“阿甘正传”是一部比较热门且备受好评的电影,它的评分普遍比平均评分要高1.2分,那么电影“阿甘正传”的偏置值b_{i}就是+1.2,因此就可以预测出用户A对电影“阿甘正传”的评分为:3.5+(-0.5)+1.2,即4.2分。

对于所有物品的平均评分μ是能直接计算出来的,因此问题在于要预测出每个用户的b_{u}值和每个物品的b_{i}值。对于线性回归问题,我们可以利用平方差构建损失函数如下:

                

加入L2正则化:

                 

 公式解析:

  • 公式第一部分,是用来寻找与已知评分数据拟合最好的b_{u}b_{i}
  • 公式第二部分,是正则化项,用于避免过拟合想象

对于最小过程的求解,一般采用随机梯度下降法或者交替最小二乘法来优化实现。

方法一:随机梯度下降法优化

使用随机梯度下降优化算法预测Baseline偏置值

1、梯度下降法推导

损失函数:

                

梯度下降参数更新原始公式(α为学习速率):

                 

 梯度下降更新b_{u},损失函数偏导推导:

                

 b_{u}更新(因为α可以人为控制,所以2可以省略掉):

                

 同理可得,梯度下降更新b_{i}

                

 2、随机梯度下降法

由于随机梯度下降法本质上是利用每个样本的损失来更新参数,而不用每次求出全部的损失和,因此使用SGD时:

单样本损失值:

                

参数更新:

                         

 3、算法实现

import pandas as pd
import numpy as np

class BaselineCFBySGD(object):
    
    def __init__(self,number_epochs,alpha,reg,columns=['uid','iid','rating']):
        # 梯度下降最高迭代次数
        self.number_epochs = number_epochs
        # 学习率
        self.alpha = alpha
        # 正则参数
        self.reg = reg
        # 数据集中user-item-rating字段的名称
        self.columns = columns
        
    def fit(self,dataset):
        '''
        :param dataset:uid,iid,rating
        :return:
        '''
        self.dataset = dataset
        # 用户评分数据
        self.users_ratings = dataset.groupby(self.columns[0]).agg([list])[[self.columns[1],self.columns[2]]]
        # 物品评分数据
        self.items_ratings = dataset.groupby(self.columns[1]).agg([list])[[self.columns[0],self.columns[2]]]
        # 计算全局评分
        self.global_mean = self.dataset[self.columns[2]].mean()
        # 调用sgd方法训练模型参数
        self.bu,self.bi = self.sgd()
        
    def sgd(self):
        '''
        利用随机梯度下降,优化bu,bi的值
        :return:bu,bi
        '''
        # 初始化bu、bi的值,全部设为0
        bu = dict(zip(self.users_ratings.index,np.zeros(len(self.users_ratings))))
        bi = dict(zip(self.items_ratings.index,np.zeros(len(self.items_ratings))))
        
        for i in range(self.number_epochs):
            print("iter____%d" % i)
            for uid,iid,real_rating in self.dataset.itertuples(index=False):
                error = real_rating - (self.global_mean + bu[uid] + bi[iid])
                bu[uid] += self.alpha * (error - self.reg * bu[uid])
                bi[iid] += self.alpha * (error - self.reg * bi[iid])
        return bu,bi
    
    def predict(self,uid,iid):
        predict_rating = self.global_mean + self.bu[uid] + self.bi[iid]
        return predict_rating
    
if __name__ == '__main__':
    dtype = [('userId',np.int32),('movieId',np.int32),('rating',np.float32)]
    dataset = pd.read_csv("./ratings.csv",usecols=range(3),dtype=dict(dtype))
    bcf = BaselineCFBySGD(20,0.1,0.1,["userId","movieId","rating"])
    bcf.fit(dataset)
    while True:
        uid = int(input("uid:"))
        iid = int(input("iid:"))
        print(bcf.predict(uid,iid))

4、准确性指标评估

添加test方法,然后使用accuracy方法计算准确性指标

import pandas as  pd
import numpy as np

def data_split(data_path,x=0.8,random=False):
    '''
    切分数据集,这里为了保证用户数量保持不变,将每个用户的评分数据按比例进行拆分
    :param data_path:数据集路径
    :param x:训练集的比例,如x=0.8,则0.2是测试集
    :param random:是否随机切分,默认为False
    :return:用户-物品评分矩阵
    '''
    print("开始切分数据集...")
    # 设置要加载的数据字段的类型
    dtype = {"userId":np.int32,"movieId":np.int32,"rating":np.float32}
    # 加载数据,我们只用前三列数据,分布是用户id,电影id,以及用户对电影的评分
    ratings = pd.read_csv(data_path,dtype=dtype,usecols=range(3))
    
    testset_index = []
    # 为了保证每个用户在测试集和训练集都是有数据,因此按userId聚合
    for uid in ratings.groupby("userId").any().index:
        user_rating_data = ratings.where(ratings["userId"]==uid).dropna()
        if random:
            # 因为不可变类型不能被shuffle方法作用,所以需要强行转换为列表
            index = list(user_rating_data.index)
            np.random.shuffle(index)  # 打乱列表
            _index = round(len(user_rating_data) * x)
            testset_index += list(index[_index:])
        else:
            # 将每个用户的x比例的数据作为训练集,剩余的作为测试集
            index = round(len(user_rating_data) * x)
            testset_index += list(user_rating_data.index.values[index:])
            
    testset = ratings.loc[testset_index]
    trainset = ratings.drop(testset_index)
    print("完成数据集切分...")
    return trainset,testset

def accuracy(predict_results,method='all'):
    '''
    准确性指标计算方法
    :param predict_results:预测结果,类型为容器,每个元素是一个包含uid,iid,real_rating,pred_rating的序列
    :param method:指标方法,类型为字符串,rmse或mae,否则返回两者rmse和mae
    :return:
    '''
    def rmse(predict_results):
        length = 0
        _rmse_sum = 0
        for uid,iid,real_rating,pred_rating in predict_results:
            length += 1
            _rmse_sum += (pred_rating - real_rating) ** 2
        return round(np.sqrt(_rmse_sum / length),4)
    
    def mae(predict_results):
        length = 0
        _mae_sum = 0
        for uid,iid,real_rating,pred_rating in predict_results:
            length += 1
            _mae_sum += abs(pred_rating - real_rating)
        return round(_mae_sum / length,4)
    
    def rmse_mae(predict_results):
        length = 0
        _rmse_sum = 0
        _mae_sum = 0
        for uid,iid,real_rating,pred_rating in predict_results:
            length += 1
            _rmse_sum += (pred_rating - real_rating) ** 2
            _mae_sum += abs(pred_rating - real_rating)
        return round(np.sqrt(_rmse_sum/length),4),round(_mae_sum/length,4)
    
    if method.lower == "rmse":
        rmse(predict_results)
    elif method.lower == "mae":
        mae(predict_results)
    else:
        return rmse_mae(predict_results)
    

class BaselineCFBySGD(object):
    
    def __init__(self,number_epochs,alpha,reg,columns=['uid','iid','rating']):
        # 梯度下降最高迭代次数
        self.number_epochs = number_epochs
        # 学习率
        self.alpha = alpha
        # 正则参数
        self.reg = reg
        # 数据集中user-item-rating字段的名称
        self.columns = columns
        
    def fit(self,dataset):
        '''
        :param dataset:uid,iid,rating
        :return:
        '''
        self.dataset = dataset
        # 用户评分数据
        self.users_ratings = dataset.groupby(self.columns[0]).agg([list])[[self.columns[1],self.columns[2]]]
        # 物品评分数据
        self.items_ratings = dataset.groupby(self.columns[1]).agg([list])[[self.columns[0],self.columns[2]]]
        # 计算全局评分
        self.global_mean = self.dataset[self.columns[2]].mean()
        # 调用sgd方法训练模型参数
        self.bu,self.bi = self.sgd()
        
    def sgd(self):
        '''
        利用随机梯度下降,优化bu,bi的值
        :return:bu,bi
        '''
        # 初始化bu、bi的值,全部设为0
        bu = dict(zip(self.users_ratings.index,np.zeros(len(self.users_ratings))))
        bi = dict(zip(self.items_ratings.index,np.zeros(len(self.items_ratings))))
        
        for i in range(self.number_epochs):
            print("iter____%d" % i)
            for uid,iid,real_rating in self.dataset.itertuples(index=False):
                error = real_rating - (self.global_mean + bu[uid] + bi[iid])
                bu[uid] += self.alpha * (error - self.reg * bu[uid])
                bi[iid] += self.alpha * (error - self.reg * bi[iid])
        return bu,bi
    
    def predict(self,uid,iid):
        '''评分预测'''
        if iid not in self.items_ratings.index:
            raise Exception("无法预测用户<{uid}>对电影<{iid}>的评分,因为训练集中缺失<{iid}>的数据".format(uid=uid,iid=iid))
        predict_rating = self.global_mean + self.bu[uid] + self.bi[iid]
        return predict_rating
    
    def test(self,testset):
        '''预测测试集数据'''
        for uid,iid,real_rating in testset.itertuples(index=False):
            try:
                pred_rating = self.predict(uid,iid)
            except Exception as e:
                print(e)
            else:
                yield uid,iid,real_rating,pred_rating
    
if __name__ == '__main__':
    trainset,testset = data_split("./ratings.csv",random=True)
    bcf = BaselineCFBySGD(20,0.1,0.1,["userId","movieId","rating"])
    bcf.fit(trainset)
    
    pred_results = bcf.test(testset)
    rmse,mae = accuracy(pred_results)
    print("rmse:",rmse,"mae:",mae)

方法二:交替最小二乘法优化

使用交替最小二乘法优化算法预测Baseline偏置值

1、交替最小二乘法推导

最小二乘法和梯度下降法一样,可以用于求极值

最小二乘法思想:对损失函数求偏导,然后再使偏导为0

同样,损失函数:

                

 对损失函数求偏导:

                

 令偏导为0,可得:

                

为了简化公式,这里令=|R(u)|*b_{u},即直接假设每一项的偏置都相等,可得:

                 

其中|R(u)|表示用户u的有过评分的数量

同理可得:

                 

其中|R(i)|表示物品i收到的评分数量 

b_{u}b_{i}分别属于用户和物品的偏置,因此他们的正则参数可以分别设置两个独立的参数。

2、交替最小二乘法应用

通过最小二乘法推导,我们最终分别得到了b_{u}b_{i}的表达式,但他们的表达式中却又各自包含对方,因此这里我们将利用一种叫交替最小二乘的方法来计算他们的值:

  • 计算其中一项,先固定其他未知参数,即看做其他未知参数为已知
  • 如求b_{u}时,将b_{i}看做是已知;求b_{i}时,将b_{u}看做是已知;如此反复交替,不断更新二者的值,求得最终的结果。这就是交替最小二乘法(ALS)

3、算法实现

import pandas as pd
import numpy as np

class BaselineCFByALS(object):
    
    def __init__(self,number_epochs,reg_bu,reg_bi,columns=["uid","iid","rating"]):
        # 梯度下降最高迭代次数
        self.number_epochs = number_epochs
        # bu的正则化参数
        self.reg_bu = reg_bu
        # bi的正则化参数
        self.reg_bi = reg_bi
        # 数据集中user-item-rating字段的名称
        self.columns = columns
        
    def fit(self,dataset):
        '''
        :param dataset:uid,iid,rating
        :return:
        '''
        self.dataset = dataset
        # 用户评分数据
        self.users_ratings = dataset.groupby(self.columns[0]).agg([list])[[self.columns[1],self.columns[2]]]
        # 物品评分数据
        self.items_ratings = dataset.groupby(self.columns[1]).agg([list])[[self.columns[0],self.columns[2]]]
        # 计算全局平均分
        self.global_mean = self.dataset[self.columns[2]].mean()
        # 调用als方法训练模型参数
        self.bu,self.bi = self.als()
        
    def als(self):
        '''
        利用交替最小二乘法,优化bu,bi的值
        :return:bu,bi
        '''
        # 初始化bu,bi的值,全部设为0
        bu = dict(zip(self.users_ratings.index,np.zeros(len(self.users_ratings))))
        bi = dict(zip(self.items_ratings.index,np.zeros(len(self.items_ratings))))
        
        for i in range(self.number_epochs):
            print("iter_____%d" % i)
            for iid,uids,ratings in self.items_ratings.itertuples(index=True):
                _sum = 0
                for uid,rating in zip(uids,ratings):
                    _sum += rating - self.global_mean - bu[uid]
                bi[iid] = _sum / (self.reg_bi + len(uids))
                
            for uid,iids,ratings in self.users_ratings.itertuples(index=True):
                _sum = 0
                for iid,rating in zip(iids,ratings):
                    _sum += rating - self.global_mean - bi[iid]
                bu[uid] = _sum / (self.reg_bu + len(iids))
                
        return bu,bi
    
    def predict(self,uid,iid):
        predict_rating = self.global_mean + self.bu[uid] + self.bi[iid]
        return predict_rating
    
if __name__ == '__main__':
    dtype = [("userId",np.int32),("movieId",np.int32),("rating",np.float32)]
    dataset = pd.read_csv('./ratings.csv',usecols=range(3),dtype=dict(dtype))
    bcf = BaselineCFByALS(20,25,15,["userId","movieId","rating"])
    bcf.fit(dataset)
    
    while True:
        uid = int(input("uid: "))
        iid = int(input("iid: "))
        print(bcf.predict(uid, iid))

4、准确性指标评估

import pandas as pd
import numpy as np

def data_split(data_path,x=0.8,random=False):
    '''
    切分数据集,这里为了保证用户数量保持不变,将每个用户的评分数据按比例进行拆分
    :param data_path:数据集路径
    :param x:训练集的比例,如x=0.8,则0.2是测试集
    :param random:是否随机切分,默认False
    :return:用户-物品评分矩阵
    '''
    print("开始切分数据集...")
    # 设置要加载的数据字段的类型
    dtype = {"userId":np.int32,"movieId":np.int32,"rating":np.float32}
    # 加载数据,我们只用前三列数据,分别是用户id,电影id,以及用户对电影的评分
    ratings = pd.read_csv(data_path,dtype=dtype,usecols=range(3))
    
    testset_index = []
    # 为了保证每个用户在测试集和训练集都有数据,因此按userId聚合
    for uid in ratings.groupby("userId").any().index:
        user_rating_data = ratings.where(ratings["userId"]==uid).dropna()
        if random:
            # 因为不可变类型不能被shuffle方法作用,所以需要强行转换为列表
            index = list(user_rating_data.index)
            np.random.shuffle(index)  # 打乱列表
            _index = round(len(user_rating_data) * x)
            testset_index += list(index[_index:])
        else:
            # 将每个用户的x比例的数据作为训练集,剩余的作为测试集
            index = round(len(user_rating_data) * x)
            testset_index += list(user_rating_data.index.values[index:])
            
    testset = ratings.loc[testset_index]
    trainset = ratings.drop(testset_index)
    print("完成数据集切分...")
    return trainset,testset

def accuracy(predict_results,method="all"):
    '''
    准确性指标计算方法
    :param predict_results:预测结果,类型为容器,每个元素是一个包含uid,iid,real_rating,pred_rating的序列
    :param method:指标方法,类型为字符串,rmse或mae,否则返回两者rmse和mae
    :return:
    '''
    def rmse(predict_results):
        length = 0
        _rmse_sum = 0
        for uid,iid,real_rating,pred_rating in predict_results:
            length += 1
            _rmse_sum += (pred_rating - real_rating) ** 2
        return round(np.sqrt(_rmse_sum/length,4))
    
    def mae(predict_results):
        length = 0
        _mae_sum = 0
        for uid,iid,real_rating,pred_rating in predict_results:
            length += 1
            _mae_sum += abs(pred_rating - real_rating)
        return round(_mae_sum/length,4)
    
    def rmse_mae(predict_results):
        length = 0
        _rmse_sum = 0
        _mae_sum = 0
        for uid,iid,real_rating,pred_rating in predict_results:
            length += 1
            _rmse_sum += (pred_rating - real_rating) ** 2
            _mae_sum += abs(pred_rating - real_rating)
        return round(np.sqrt(_rmse_sum/length),4),round(_mae_sum/length,4)
    
    if method.lower() == 'rmse':
        rmse(predict_results)
    elif method.lower() == 'mae':
        mae(predict_results)
    else:
        return rmse_mae(predict_results)
        
class BaselineCFByALS(object):

    def __init__(self, number_epochs, reg_bu, reg_bi, columns=["uid", "iid", "rating"]):
        # 梯度下降最高迭代次数
        self.number_epochs = number_epochs
        # bu的正则参数
        self.reg_bu = reg_bu
        # bi的正则参数
        self.reg_bi = reg_bi
        # 数据集中user-item-rating字段的名称
        self.columns = columns

    def fit(self, dataset):
        '''
        :param dataset: uid, iid, rating
        :return:
        '''
        self.dataset = dataset
        # 用户评分数据
        self.users_ratings = dataset.groupby(self.columns[0]).agg([list])[[self.columns[1], self.columns[2]]]
        # 物品评分数据
        self.items_ratings = dataset.groupby(self.columns[1]).agg([list])[[self.columns[0], self.columns[2]]]
        # 计算全局平均分
        self.global_mean = self.dataset[self.columns[2]].mean()
        # 调用sgd方法训练模型参数
        self.bu, self.bi = self.als()

    def als(self):
        '''
        利用随机梯度下降,优化bu,bi的值
        :return: bu, bi
        '''
        # 初始化bu、bi的值,全部设为0
        bu = dict(zip(self.users_ratings.index, np.zeros(len(self.users_ratings))))
        bi = dict(zip(self.items_ratings.index, np.zeros(len(self.items_ratings))))

        for i in range(self.number_epochs):
            print("iter%d" % i)
            for iid, uids, ratings in self.items_ratings.itertuples(index=True):
                _sum = 0
                for uid, rating in zip(uids, ratings):
                    _sum += rating - self.global_mean - bu[uid]
                bi[iid] = _sum / (self.reg_bi + len(uids))

            for uid, iids, ratings in self.users_ratings.itertuples(index=True):
                _sum = 0
                for iid, rating in zip(iids, ratings):
                    _sum += rating - self.global_mean - bi[iid]
                bu[uid] = _sum / (self.reg_bu + len(iids))
        return bu, bi

    def predict(self, uid, iid):
        '''评分预测'''
        if iid not in self.items_ratings.index:
            raise Exception("无法预测用户<{uid}>对电影<{iid}>的评分,因为训练集中缺失<{iid}>的数据".format(uid=uid, iid=iid))

        predict_rating = self.global_mean + self.bu[uid] + self.bi[iid]
        return predict_rating

    def test(self,testset):
        '''预测测试集数据'''
        for uid, iid, real_rating in testset.itertuples(index=False):
            try:
                pred_rating = self.predict(uid, iid)
            except Exception as e:
                print(e)
            else:
                yield uid, iid, real_rating, pred_rating


if __name__ == '__main__':
    trainset, testset = data_split("./ratings.csv", random=True)

    bcf = BaselineCFByALS(20, 25, 15, ["userId", "movieId", "rating"])
    bcf.fit(trainset)

    pred_results = bcf.test(testset)

    rmse, mae = accuracy(pred_results)

    print("rmse: ", rmse, "mae: ", mae)

--------------------------------------------------------------

参考课程:推荐系统及算法实战,如侵删。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值