![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
赵小丽-programer
mid-core programer
展开
-
那些年白上了的线代课
暂无摘要原创 2022-12-04 11:08:55 · 198 阅读 · 1 评论 -
我想简单的写写nce和infonce
推荐系统——对比学习对比学习 相关背景对比学习提出的背景对比学习方法正例的构建方法负例的构建对比学习的效果、趋势对比学习在推荐中的应用总结对比学习 相关背景对比学习提出的背景度量学习+无监督学习对比学习方法希望投影空间中两个正例比较接近,如果是负例,则远离。通过infoNce Loss 来达到这个目标正例的构建方法负例的构建对比学习的效果、趋势对比学习在推荐中的应用总结引用:1....原创 2022-05-18 18:11:31 · 4531 阅读 · 0 评论 -
MIMN——Multi-channel user Interest Memory network
MIMN——Multi-channel user Interest Memory network原创 2022-05-16 14:20:29 · 1039 阅读 · 0 评论 -
《深入浅出图神经网络》笔记
GCN 及其变种图网络 主要是处理图信息 ,相比其他数据结构的数据,图网络考虑了节点之间的连接关系,因此具备更加丰富的信息。相比于CNN ,介绍了大量图的卷积操作,图的时域与空域的变换,主要借助拉普拉斯矩阵分解,频率为拉普拉斯矩阵的特征值,特征向量为基函数。图的卷积变换 可以变为频域上面的乘积。图滤波 与图卷积的操作一致,图滤波器为图上的特征提取器。图神经网络 wx 使用的是 特征变换 Lw*x 考虑图结构信息。对w 和L 进行学习,参数量巨大,因此GCN 做成了固定的滤波器,引发的问题是GCN原创 2021-03-14 14:34:21 · 149 阅读 · 0 评论 -
model.evaluate sample_weight 设置不同,导致AUC 不同的原因排查
文章目录背景原因分析背景在train set 中设置了sample weight进行训练,在评估集上 设置不同的sample_weight 进行model.evaluate 时,得到AUC 不同。这与 我想的不一样:sample weight 不参与评估原因分析首先 根据tensorflow 官网的代码: evaluate 是可以传入 sample_weight 的。但是有引申了第...原创 2020-05-07 15:22:08 · 1017 阅读 · 0 评论 -
tf从hdfs 直接获取数据训练模型
文章目录背景操作环境tensorflow1.13 ,python2.7获取hdfs 的文件目录input_fnshell 中配置需要额外关注的是:从hdfs 训练,需要在保存数据之前打乱顺序与本地相比,训练运行耗时 增长6%,AUC训练效果不受影响注意背景训练集数据集比较大,目前train 集合已经27G,每次占用的磁盘空间较大getmerge 时间太长,15分钟用来获取训练集、测试集、评...原创 2020-04-26 11:12:40 · 1821 阅读 · 0 评论 -
聊一聊有监督、无监督学习的界线
聊一聊有监督、无监督学习的界线有监督学习无监督学习常有疑惑有时困惑,现在的模型都有loss 为啥还说无监督呢?有监督学习有明确给出的输出值y,学习的是输入x到y的表达模型无监督学习想要输出值y,但是没有,通过样本来学习y的分布常有疑惑word2vec 为啥不是有监督模型,明明上下文就是中心词的正样本(CBOW)。原因: word2vec 模型,想要的是一个word-&...原创 2019-12-28 16:22:11 · 378 阅读 · 0 评论 -
markov过程收敛性证明
文章目录markov 过程:定义:特性markov 过程收敛性证明收敛性定理:定理的官方定义还没找到(找到后更新)定理证明:markov矩阵 特征值最大为1 。(主要性质据此可证收敛)markov 过程:定义:满足马尔可夫性质的随机过程。即转移概率仅仅与当前的状态有关。特性正如定义,马尔可夫过程不具备记忆性。与其他状态互相独立markov 过程收敛性证明收敛性定理:定理的官...原创 2019-05-17 09:56:03 · 6362 阅读 · 3 评论 -
pagerank小随想
pagerank衡量网页重要程度的模型。思想:共现关系互相支持怎么理解是重要的?它的子链接多(很多人上贡)它的子链接厉害(贡品贵)它的父链接比较少(不怎么需要上贡)正所谓开源节流。正在找收敛性证明,找到后更新...原创 2019-05-15 09:54:52 · 182 阅读 · 0 评论 -
weighted-deepwalk步骤
步骤weighted 数据(startnode,endnode,weight)构造graph所谓graph 就是存储点对之间的关系生成邻接矩阵(矩阵的第i 行代表:第i 个node 游走到其他node 的概率)为每个node 生成n个长度为m 的session...原创 2019-05-08 10:26:27 · 648 阅读 · 0 评论 -
推荐-SVD算法
SVD(奇异值分解)SVD意义矩阵作用于向量的意义是:对向量进行旋转和缩放,更加抽象的说,是将这个向量从一组正交基空间旋转到另一组正交基空间,并缩放对于实对称矩阵,存在M*V_i=\lambda_{i}V_i即存在一组正交基,M的作用只是拉伸(对应特征分解)但是对于更加一般的矩阵MM*V_i=\lambda_{i}U_i即不同组正交基之间的变换SVD在推荐中本质:将用户偏好...原创 2018-10-30 22:29:22 · 638 阅读 · 0 评论 -
python -爬虫爬取CSDN导航页的文章标题
1、CSDN首页当鼠标滑动到页面底部时,展示的内容会增加。为了爬取更多的标题,我们使用selenium中的webdriver模拟浏览器的行为。 首先pip install selenium 代码片段: from selenium import webdriver import time browser=webdriver.Chrome()...原创 2018-05-15 21:32:03 · 450 阅读 · 0 评论 -
KKT条件的推导
KKT条件推导转载 2017-07-18 10:32:20 · 2019 阅读 · 0 评论 -
爬虫-天眼查数据
爬虫原创 2017-06-04 10:07:53 · 7112 阅读 · 2 评论 -
Beautiful Soup记录
爬虫爬虫原创 2017-06-02 21:57:14 · 440 阅读 · 3 评论 -
CART 回归树代码实现
回归树的实现细节原创 2017-05-27 09:53:44 · 1034 阅读 · 0 评论 -
boost
提升方法:将弱学习器组合以求得到高效的模型。弱学习器要‘和而不同’和:准确性要有;不同:学习器之间的独立性 加性和向前算法,来构建boost模型,优化参数. adaboost 采用最小化指数损失函数 做为模型选择策略。初始确定学习器后,通过改变样本的权重获得新的学习器。最终将学习器加权。适用于二分类问题。 此外,boost tree被认为是统计学习中最有效的方法之一,是使用分类树和回归树作为基原创 2017-05-26 15:24:29 · 314 阅读 · 0 评论 -
文章标题
参考python机器学习实战和统计学习编写SVM(软间隔)原创 2017-05-24 12:02:57 · 270 阅读 · 0 评论