自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 资源 (3)
  • 收藏
  • 关注

原创 木桶原理与反木桶原理及数学论证

目录一、木桶原理二、反木桶原理三、数学论证1、简单论证2、相对论证3、思考 木桶原理与反木桶原理是我们生活中非常熟知的理论,一、木桶原理木桶原理:指一个由若干木板构成的木桶,其容量取决于最短的那块木板。对一个组织而言,构成组织的各个要素类似于木桶的若干木板,而组织的能力又如木桶的容量,取决于组织中的要素。二、反木桶原理反木桶原理:木桶...

2018-12-22 11:16:45 11634

原创 智能推荐--协同过滤

推荐算法具有非常多的应用场景和商业价值,因此对推荐算法值得好好研究。推荐算法种类很多,但是目前应用最广泛的应该是协同过滤类别的推荐算法,本文就对协同过滤类别的推荐算法做一个概括总结,后续也会对一些典型的协同过滤推荐算法做原理总结。 1. 推荐算法概述    推荐算法是非常古老的,在机器学习还没有兴起的时候就有需求和应用了。概括来说,可以分为以下5种:    1)基于内容的推荐:这一...

2018-12-19 22:41:42 1045 1

Attention Is All You Need论文

"Attention Is All You Need" 论文的详细解读如下: 1. 摘要(Abstract): 论文摘要简要介绍了Transformer模型,一种基于注意力机制的序列到序列学习模型。摘要提到,Transformer摒弃了传统的循环和卷积层,完全依赖于注意力机制来实现输入和输出序列之间的关联。实验结果表明,在翻译质量、并行能力和所需训练时间方面,Transformer优于此前的方法。 2. 引言(Introduction): 引言部分首先回顾了传统的序列到序列模型,特别是基于RNN和CNN的模型,并指出了它们在处理长距离依赖和并行计算方面的局限性。随后,作者介绍了注意力机制,并强调了其在机器翻译等任务中的重要性。最后,作者总结了Transformer模型的主要特点和实验结果,指出其在翻译质量和模型效率方面的优势。 3. 相关工作(Background): 在这一部分,作者简要回顾了与Transformer模型相关的先前工作,包括传统的序列到序列模型、基于注意力机制的模型以及一些优化技术。这些工作为Transformer模型的设计提供了理论基础和实践经验。

2024-07-04

RAG技术知识图谱概览

RAG技术知识

2024-05-22

RNN循环神经网络代码

RNN循环神经网络代码

2024-02-28

回归样本数据(教育年限与收入关系)

回归样本数据(教育年限与收入关系)

2023-01-10

时间序列样例数据(股票数据)

时间序列样例数据(股票数据) 可用于时间序列分析进行测试 时间颗粒度为“天” 包含每一天的开盘价、收盘价、最低值、最高值

2023-01-04

iris鸢尾花数据集下载

鸢尾花数据

2022-01-17

orange中文版.txt

orange中文版

2022-01-17

diabetes_train.txt

糖尿病数据集,主要用于机器学习或者深度学习分类算法,共有9个字段 前8个维变量,最后一个字段为标签,为二分类数据集,当然自己可以转换成ONE-HOT类型

2020-05-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除