自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 org.apache.ibatis.binding.BindingException: Invalid bound statement (not found): com.minghui.dao.Use

查找了很多方法,高赞答案都实现了还是报这个错,.xml都加上了该有的内容,结果发现没有加到target,,,的文件夹那个.xml,就是下面这个hongkuang(之前的内容加到上面的.xml了):

2022-02-24 16:24:49 208

原创 The JAVA_HOME environment variable is not defined correctly This environment variable is needed to r

配置MAVEN 搞了很久没搞出来,最后删了JAVA_HOME变量,重新写,结果居然好了。无语

2022-02-22 16:44:24 473

原创 验证集干嘛的?

防止消息泄露,用来调节超参数的

2021-07-19 21:32:58 194

原创 GNN、GCN原理及推导

在这里插入图片描述GNN分为两个角度去研究,一个空间域,一个谱域。Spatial-based Conovolution空间域的卷积就是空间上的卷积,跟CNN很像,就是综合一个节点的邻接节点的特征用来生成下一层的该点的特征然后整合成下一层的图:1,NN4G如上图,这里的卷积就是,对于v3来说,下一层的V3的特征就是一个参数(矩阵)乘以这一层的邻接点的特征,然后加上自己的特征与一个参数矩阵的乘积之后的输出跟CNN不一样,输出的y是前面所有层的平均然后分别乘以可训练矩阵后加起来得到:为什么相加呢?可

2021-07-19 21:12:18 2315

原创 Transformer详解

所有的Q&A问题(翻译,聊天机器人,摘要提取,评价的正负面等等)都可以用seq2seq来解,用大量的训练文本去训练,比如聊天机器人等:甚至用在目标检测硬解:encoderseq2seq的本质就是输入一些向量然后经过某个block生成另外一些向量。这件事RNN和self-attention和CNN都能做,在这里我们transformer做:现在分析transformer里面每个block的结构:首先是输入经过self-attention得到a,然后根据残差连接的思想加上一个b后用一个lay

2021-07-18 22:51:51 605

原创 self-attention详解

self-attention在一些问题中,比如机器翻译,语音识别,词性识别,情感识别,摘要提取等,这都是输入一些序列(文字,音频都可以转为序列)然后输出一些序列,是典型的seq2seq模型。传统seq2seq会遗忘前面的输入在这里引入self-attention来检测全图信息。传统FC链接可以用以下方法观察周围信息,但有时候输入的长度不等,window太长浪费计算资源:自注意力层如下,你输入多少个向量,它对应的输出多少个向量,而且输出是兼顾了所有输入的全局信息的:自注意力的工作流程如下:1, 计算注

2021-07-18 20:06:09 1100

原创 关于注意力机制Attention解析

关于注意力机制attention解析第一部分seq2seq模型第二部分Attention机制第三部分self-attention第一部分:seq2seq模型处理数据如以下站,可以下载到小数据集用来学习,比如在右下部分是英语翻译成的德语,是一对多的关系,只要翻译满足其中一种,就算翻译正确。现在要结构化数据,可以基于单词也可以基于字母,这里以基于字母的来说明。首先将一句话“I am okay”,拆分成如下的排列:每一个字母可以在如下的字典里面找到它的键:德语是目标语言,所以要加上开始和结束的键值

2021-07-18 11:57:07 985

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除