自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 关于DataFrame的一些操作

1.输出df特定列最大值的一行df[df['test_precison']==df['test_precison'].max()]2.生成空的df表,并扩展new_df = pd.DataFrame(columns=['Method', 'RecNum', 'Layer'])new_df =new_df.append(row, ignore_index=True) 3.输出对应列为特定值的所有行(例:topK=5, n_layers=2, 希望找到RecNum为5,Layer为2条件下的所有

2021-04-11 16:10:46 117

原创 InstanceNorm1d

官方文档:https://pytorch.org/docs/stable/generated/torch.nn.InstanceNorm1d.html?highlight=instancenorm1d#torch.nn.InstanceNorm1d

2021-04-06 10:45:05 1350 1

转载 Attention Mask

Mask大致分为两种Padding Mask:在NLP任务中,由于句子长度不一致,经常会进行padding操作,在sequence中加入零向量。这部分padding不应该起作用,但是在Attention的计算中用到了softmax等操作,即便0向量也会参与计算(e^0=1),因此需要手动将这部分信息mask才行。padding mask主要包含两种:key mask:在计算score之后,且softmax之前进行,将值设为很小的数字(如-e^12),这样经过的softmax之后值几乎为0query m

2021-03-29 14:48:46 3196

转载 协同过滤的局限性

协同过滤的局限性  协同过滤非常直观,而且可解释性强,但是它仍然具有很多的局限性,比如它的泛化能力比较差,协同过滤无法将两个物品相似这一信息推广到其他物品的相似度计算上。这就到这了一个严重的问题,热门物品具有很强的头部效应,容易跟大量的商品产生相似度,而长尾商品,由于其特征向量稀疏,很少与其他物品产生相似度,导致被推荐的可能性很小。但是去发掘长尾商品,增加长尾被推荐的可能性却是推荐系统最重要的目标之一。这其实也可以被视为是协同过滤的天然缺陷,本身无论是基于用户还是基于商品,协同过滤对稀疏向量的处理本身就很

2021-03-07 15:46:11 2126

原创 python csv 写入 double类型

with open("loss.csv", "a", newline="") as f: writer = csv.writer(f) writer.writerow([epoch_loss]) f.close()

2021-01-13 15:03:21 371

原创 字典

python 字典提取出value相同的keydic={‘a’:1,‘b’:2’,‘c’:1}想要提取出list=[[‘a’,‘c’],[‘b’]]:new_dict = {}for k, v in some_dict.items(): new_dict.setdefault(v, []).append(k)from: https://wenwen.sogou.com/z/q908560056.htm...

2021-01-06 20:16:56 71

原创 tensor维度

tensor维度a = torch.tensor([1,0,0])print(len(a))b = a.unsqueeze(0)print(len(b))print(b)

2021-01-05 15:58:26 123

原创 DGL update_all

来源:https://docs.dgl.ai/guide_cn/message-api.html#guide-cn-message-passing-api

2020-12-03 20:58:39 483 1

原创 图神经网络七日打卡营学习心得

图神经网络七日打卡营学习心得干货满满!虽然没有具体介绍图神经网络谱域方法,但终于弄明白经典GCN模型与空域方法之间的联系。GCN信息传递过程简化来看其实就是邻接矩阵与特征的乘积,对每个节点来说,也就是接收与其相邻节点的特征信息。如下图。此外,不同邻居节点对中心节点起到的作用程度不同,需要为邻居赋予权重,那对于GCN来说,度矩阵就可以派上用场。GCN模型中的权重以“度”来衡量,而GAT模型中的权重则可以通过自学习获取。所有的图片都来自于七日打卡营的课程的ppt:https://gith

2020-11-29 16:19:43 131

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除