transformer
文章平均质量分 94
神经美学-茂森
作为一名在读博士生,我正尝试着探索人工智能与艺术这一交汇领域的微妙之处,希望能逐渐揭开两者间隐藏的联系。我的研究试图跨越技术的界限,触及人类感知与认知的深层次,以期能更深入地理解“美”这一抽象概念。
展开
-
【生成模型系列(初级)】自编码器——深度学习的数据压缩与重构【代码模拟】
深度学习 #特征提取 #Attention机制 #CNN #Transformer #关联特征 #MLP #拟合处理。原创 2024-08-29 10:08:13 · 1206 阅读 · 0 评论 -
【通俗理解】Transformer哈希机制——序列数据的情感搅拌机
Transformer #哈希机制 #自注意力 #序列数据 #拟合 #情感搅拌机 #关联权重 #高维空间映射 #复杂依赖关系 #数据处理。原创 2024-08-28 15:54:58 · 1107 阅读 · 0 评论 -
【通俗理解】Transformer复杂度解析——从注意力机制到计算成本
Transformer #复杂度 #注意力机制 #自注意力 #序列长度 #特征维度 #计算成本 #时间复杂度 #空间复杂度 #模型优化。原创 2024-08-19 16:28:07 · 999 阅读 · 0 评论 -
【生成模型系列(中级)】Transformer中的Multi-head Attention机制解析——从单一到多元的关注效益最大化
## 关键词提炼#Multi-head Attention#Transformer模型#多头注意力机制#序列数据处理#长距离依赖关系原创 2024-07-28 16:27:33 · 826 阅读 · 0 评论 -
VAE、GAN与Transformer核心公式解析
VAE、GAN和Transformer虽都由编码器和解码器(或类似结构)组成,但它们在输入输出、隐变量使用、目标函数等方面存在显著差异。VAE擅长数据的压缩和生成,GAN则擅长高质量的数据生成和判别,而Transformer则专注于序列数据的编码和解码。原创 2024-07-25 15:47:54 · 928 阅读 · 0 评论 -
【公式】Transformer模型中的位置编码公式解析
在Transformer模型中,由于模型本身不具备处理序列数据位置信息的能力,因此需要引入位置编码来为模型提供序列中单词的位置信息。位置编码通过正弦波和余弦波函数生成,保证了位置的唯一性和相对位置关系的学习。位置编码与其他模型参数一起学习,使得Transformer能够更好地处理序列数据。PEpos2isin100002idposPEpos2i1cos100002idpos其中,pos表示位置,i表示维度,d表示位置编码的维度。原创 2024-07-25 12:06:18 · 994 阅读 · 0 评论 -
Transformer中的Multi-head与Self-Attention机制解析——从单一关注到多元自省的效益最大化
其基本公式如下:MultiHead(Q,K,V)=Concat(head1,...,headh)WO \text{MultiHead}(Q, K, V) = \text{Concat}(\text{head}_1, ..., \text{head}_h)W^O MultiHead(Q,K,V)=Concat(head1,...,headh)WOwhere headi=Attention(QWiQ,KWiK,VWiV) \text{where } \text{head}_i = \text{Attent原创 2024-07-28 15:51:33 · 649 阅读 · 0 评论 -
【通俗理解】变分自编码器(VAE)——深度学习中的生成模型
这段代码展示了自编码器的基本应用,即数据压缩和重构,通过可视化原始图像和重构图像,可以直观地看到自编码器的性能。可视化:将测试集中的图像输入自编码器,获取重构后的图像,并将原始图像和重构图像进行可视化对比。重构损失通常使用均方误差(MSE)或交叉熵损失,KL散度衡量潜在空间分布与先验分布的差异。:使用Keras构建自编码器模型,编码器部分有一个隐藏层,解码器部分也有一个隐藏层。:加载MNIST数据集,将图像数据归一化到0到1之间,并展平为784维的向量。VAE的损失函数包括两部分:重构损失和KL散度。原创 2024-08-13 21:07:05 · 1142 阅读 · 0 评论