自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 基于用户的协同过滤电影推荐简单实现

余弦相似度:余弦相似度是通过计算两个向量之间的夹角的余弦值来度量它们的相似性。,计算结果表示对电影打分的相似程度。

2024-03-16 16:58:28 262 2

原创 分类——softmax(多类)

可以发现softmax的输出函数与逻辑回归的不同,softmax中与所有z都有关系。其中SparseCategoricalCrossentropy是稀疏范畴交叉熵函数。sofymax来实现多分类问题。输出n个值(分几类),每个值为属于这一类的概率。代价函数类似逻辑回归。aj的值越接近1Loss就越小。2.神经网络的softmax输出。3. softmax的改进实现。

2024-03-15 21:08:49 213

原创 强化学习(二)

因此,在实践中需要仔细选择合适的 ε 值以及逐步降低 ε 的策略,以确保智能体能够在训练过程中逐渐减少探索,更多地利用已知信息。在实践中,通常会选择一个较小的ε值,使得在大部分时间里采取的是当前估计的最佳动作,从而最大化已知的奖励。在软更新中目标Q的W一般通过将预测Q的W与他的W加权平均得到,所以W变化较平缓。如图(s,a)为x,Q(x)为y,但这时候我们不知道Q的参数,那么如何求y?训练预测Q,更新W,同时使用软更新策略更新目标Q的W。3.初始化目标Q,开始目标Q的W=预测Q的W。

2024-03-15 15:43:43 886 1

原创 强化学习基础内容(一)

状态动作值函数为Q(s,a)。他返回在s状态下执行a操作后经过最优行为得到的回报(return)。也就是在s状态下应该如何操作并会得到什么结果。五、状态动作值函数(state action value function)不同位置出发向左向右计算奖励,得到第三个表格(在不同位置如何选择)。我们需要一个策略函数Π(s)告诉我们在这种状态下如何行动。引入折扣因子:一般为0.9或0.99等小于1的数。对模型的输出给出奖励或惩罚,不给出正确输出。同时可得策略函数Π(s)=a。用奖励和折扣系数计算回报。

2024-03-14 16:25:09 173

原创 异常检测算法

对于一个学习问题,如果正样本的数量很少,甚至有时候是0,也就是说出现了太多没见过的不同的异常类型,那么对于这些问题,通常应该使用的算法就是异常检测算法;一个常见的问题是一些异常的数据可能也会有较高的p ( x ) p(x)p(x)值,因而被算法认为是正常的。异常检测假设特征符合高斯分布,如果数据的分布不是高斯分布,异常检测算法也能够工作,但是最好还是将数据转换成高斯分布,例如使用对数函数:x = l o g ( x + c ) ,其中x=,增加这些新特征后获得的新算法能够帮助我们更好地进行异常检测。

2024-02-24 22:15:01 440 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除