自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 GP_08_Lambda和Stream

函数式接口、Lambda表达式、Stream流

2023-03-06 08:45:38 157 1

原创 GP_07_LInkedList 和 Map 和 String 和 Math类

LinkedLIst、Map、String类、Math类

2023-03-06 08:42:12 127

原创 GP_06_集合和ArrayList源码

Collection相关方法,List相关方法,Set相关特征,ArrayList源码实现

2023-03-06 08:36:58 135

原创 GP_05_接口、匿名内部类、泛型、异常

接口,多态,匿名内部类,泛型,异常

2023-03-06 08:35:54 124

原创 GP_04_面向对象基础操作、继承、final和static

面向对象基础

2023-03-06 08:27:47 89

原创 论文相关知识点

显示反馈Explicit Feedback是基于用户行为的。在搜索结果列表,用户判断文档是否相关。搜索引擎再根据反馈的信息调整搜索结果。  优点:反馈的结果是准确的。  缺点:用户需要做额外的工作隐式反馈隐式反馈是基于用户点击行为的反馈。在搜索结果列表,用户点击的文档认为是相关的,用户跳过的文档认为是不相关文档。依据这些再调整搜索引擎。 优点:无需用户参与,反馈基本可靠。基于用户的协同过滤将购买比较相似的其他用户买过的商品 推荐给用户基于用户的协同过滤存在的问题:必须要有一定的

2021-03-29 17:16:04 176

原创 优化方法

我们知道曲面上方向导数的最大值的方向就代表了梯度的方向,因此我们在做梯度下降的时候,应该是沿着梯度的反方向进行权重的更新,可以有效的找到全局的最优解。经典的梯度下降法采用所有的训练数据的平均损失来近似目标函数。其中M是训练样本的个数模型参数的更新公式为:因此,经典的梯度下降法在每次对模型参数进行更新时,需要遍历所有的训练数据。当M很大的时候,就需要耗费巨大的计算资源和计算时间,这在实际过程中基本不可行。为了解决该问题,随机梯度下降法( SGD)应运而生。它采用单个训练样本的损失来近似平均损失优

2020-11-30 18:54:03 167

原创 GAN(初步学习)

GAN的原理介绍GAN的主要灵感来源于博弈论中零和博弈的思想,应用到深度学习神经网络上来说,就是**通过生成网络G(Generator)和判别网络D(Discriminator)不断博弈,进而使G学习到数据的分布**,如果用到图片生成上,则训练完成后,G可以从一段随机数中生成逼真的图像。G, D的主要功能是:​ ● G是一个生成式的网络,它接收一个随机的噪声z(随机数),通过这个噪声生成图像​ ● D是一个判别网络,判别一张图片是不是“真实的”。它的输

2020-10-11 17:28:48 1092

原创 贝叶斯个性化排序(BPR)

介绍显式反馈:用户对物品的评分,如电影评分隐式反馈:用户对物品的交互行为,如浏览,购买等,现实中绝大部分数据属于隐式反馈,可以从日志中获取。BPR是基于用户的隐式反馈,为用户提供物品的推荐,并且是直接对排序进行优化。BPR(Bayesian Personalized Ranking),中文名称为贝叶斯个性化排序,是当下推荐系统中常用的一种推荐算法。与其他的基于用户评分矩阵的方法不同的是BPR主要采用用户的隐式反馈(如点击、收藏、加入购物车等),通过对问题进行贝叶斯分析得到的最大后验概率来对item进

2020-10-11 14:52:29 3530 6

转载 常见的几种矩阵分解

1.三角分解(LU分解)矩阵的LU分解是将一个矩阵分解为一个下三角矩阵与上三角矩阵的乘积。本质上,LU分解是高斯消元的一种表达方式。首先,对矩阵A通过初等行变换将其变为一个上三角矩阵。对于学习过线性代数的同学来说,这个过程应该很熟悉,线性代数考试中求行列式求逆一般都是通过这种方式来求解。然后,将原始矩阵A变为上三角矩阵的过程,对应的变换矩阵为一个下三角矩阵。这中间的过程,就是Doolittle algorithm(杜尔里特算法)。转一个Tony Ma同学写的例子:若AX=b是一个非奇异系统,那么高斯消

2020-07-29 16:41:24 3139

转载 KMeans算法

K-means算法简述1.K-means算法,也称为K-平均或者K-均值,一般作为掌握聚类算法的第一个算法。2.这里的K为常数,需事先设定,通俗地说该算法是将没有标注的 M 个样本通过迭代的方式聚集成K个簇。3.在对样本进行聚集的过程往往是以样本之间的距离作为指标来划分。简单Demo说明如上图以 K 为2,样本集为M 来描述KMean算法,算法执行步骤如下:选取K个点做为初始聚集的簇心(也可选择非样本点);分别计算每个样本点到 K个簇核心的距离(这里的距离一般取欧氏距离或余弦距离),找到离该

2020-07-21 20:07:16 947

转载 knn算法

一、KNN算法原理从训练集合中获取K个离待预测样本距离最近的样本数据;根据获取得到的K个样本数据来预测当前待预测样本的目标属性值。简单Demo说明如上图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?若K=3,意思是获取3个离待测样本距离最近的数据来预测当前待预测的目标属性。当取3个最近邻样本数据时,红色三角形所占比例为2/3,蓝色四方形占比例为1/3因此绿色圆将被赋予红色三角形那个类;同理,若K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。由上述Demo

2020-07-21 17:22:48 768

原创 单变量线性回归

训练集:在机器学习中,一般将样本分成独立的三部分训练集(train set),验证集(validation set)和测试集(test set)。其中训练集用来估计模型,验证集用来确定网络结构或者控制模型复杂程度的参数,而测试集则检验最终选择最优的模型的性能如何。一个典型的划分是训练集占总样本的50%,而其它各占25%,三部分都是从样本中随机抽取。**损失函数:**机器学习模型关于单个样本的预测值与真实值的差称为损失。损失越小,模型越好,如果预测值与真实值相等,就是没有损失。用于计算损失的函数称为损失函数

2020-07-13 20:17:57 583

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除