深度学习
文章平均质量分 70
条件漫步
这个作者很懒,什么都没留下…
展开
-
人工智能、机器学习和深度学习的概念、联系与区别
人工智能、机器学习、深度学习的定义转载 2023-01-30 10:59:44 · 2066 阅读 · 0 评论 -
欠拟合、过拟合现象,及解决办法
@创建于:2022.05.27@修改于:2022.05.27文章目录1、过拟合与欠拟合2、欠拟合2.1 出现的原因2.2 解决的办法3、过拟合3.1 出现的原因3.2 解决的办法4. Early stopping5、Dropout6、L1 和 L2 正则化7、参考资料1、过拟合与欠拟合机器学习中模型的泛化能力强的模型才是好模型。对于训练好的模型:若在训练集表现差,不必说在测试集表现同样会很差,这可能是欠拟合导致;若模型在训练集表现非常好,却在测试集上差强人意,则这便是过拟合导致的。过拟合原创 2022-05-27 18:36:37 · 8169 阅读 · 1 评论 -
tensorflow.keras.models.Sequential——predict()、predict_classes()、predict_proba()方法的区别
@创建于:2022.04.17@修改于:2022.04.17文章目录1、方法介绍2、建议使用predict(),进而改写3、predict()参数介绍4、参考链接predict() 在tf.keras.Sequential 和 tf.keras.Model模块都有效;predict_classes()、predict_proba()方法 在tf.keras.Sequential 模块下有效,在tf.keras.Model模块下无效。1、方法介绍predict()方法预测时,返回值是数值,表示样本原创 2022-04-17 22:29:21 · 8048 阅读 · 6 评论 -
DSSM模型资料
@创建于:2022.03.29@修改于:2022.03.29文章目录1、DSSM介绍2、DSSM 变体3、代码实现4、文本相似度1、DSSM介绍语义相似度匹配(一)—— DSSM模型DSSM, 深度语义匹配模型2、DSSM 变体NLP | DSSM双塔模型类综述深度语义模型以及在淘宝搜索中的应用LSF-SCNN:一种基于 CNN 的短文本表达模型及相似度计算的全新优化模型3、代码实现4、文本相似度文本相似...原创 2022-03-29 21:12:37 · 310 阅读 · 0 评论 -
Embedding理解、Keras实现Embedding
@创建于:20210714@修改于:20210714文章目录1 Embedding介绍1.1 embedding 有3 个主要目的1.2 形象化解释2 包模块、方法介绍3 Keras实现Embedding4 参考链接原创 2021-07-14 14:20:58 · 1919 阅读 · 0 评论 -
迁移学习介绍资料
@创建于:20210302@修改于:20210302比较全面的资料是 王晋东 老师写的《迁移学习简明手册》。网页版Jindong Wang (王晋东)主页向王老师学习、致敬!转载 2021-03-02 16:53:42 · 124 阅读 · 0 评论 -
增强学习/强化学习 综述
@创建于:20210512@修改于:20210512文章目录1、增强学习概念2.1 增强学习定义2.2 两大特点2、简书:[阿阿阿阿毛](https://www.jianshu.com/u/a18653721b40)3、知乎:[叶强](https://www.zhihu.com/people/qqiang00/posts?page=2)4、CSDN:[夏栀的博客](https://blog.csdn.net/qq_36426650/category_9759833.html)5、博客园:[ 刘建平Pin原创 2021-05-12 12:50:51 · 8648 阅读 · 0 评论 -
Transformer 详细细节学习
完全转载,为了更好的学习。1、BERT大火却不懂Transformer?读这一篇就够了2、图解Transformer(完整版)3、关于Transformer你需要知道的都在这里------从论文到代码深入理解BERT类模型基石(包含极致详尽的代码解析!)...原创 2020-04-27 14:39:24 · 516 阅读 · 0 评论 -
keras中compile方法的 loss 和 metrics 区别
@创建于:20210415@修改于:20210415文章目录1、背景2、loss官网介绍3、metrics官网介绍4、loss与metrics对比理解4.1 loss常用方法4.2 metrics常用方法4.3 使用方法5、参考资料1、背景loss 和 metrics 在compile接口中同时存在,同时默认值都是None,那么这两个到底什么作用?def compile(self, optimizer='rmsprop', loss=None, metrics=Non原创 2021-04-15 15:06:40 · 8891 阅读 · 1 评论 -
keras中History对象介绍
@创建于:20210415@修改于:20210415文章目录1、背景2、返回内容介绍3、参考文献1、背景keras 2.3.1中的fit方法返回的history类对象。具体代码中明确写有下面的介绍:Returns:A History object. Its History.history attribute isa record of training loss values and metrics valuesat successive epochs, as well as validat原创 2021-04-15 13:44:46 · 8407 阅读 · 0 评论 -
keras中,TimeDistributed层在LSTM中的作用
@创建于:20210414文章目录1、TimeDistributed2、注意问题3、未解决lstm中Param的计算4、参考链接1、TimeDistributedkeras.layers.TimeDistributed(layer)(1)这个封装器将一个层应用于输入的每个时间片。(2)输入至少为3D,且第一个维度应该是时间所表示的维度。例如:32 个样本的一个batch,其中每个样本是10 个16 维向量的序列。那么这个batch 的输入尺寸为(32, 10, 16),而input_shap原创 2021-04-14 15:38:21 · 2354 阅读 · 0 评论 -
keras.layers.LSTM、Dense等 传递input_shape参数给第一层
@创建于:20210413@修改于:20210413文章目录1、背景2、指定输入数据的尺寸3、核心网络层没有显式的input_shape, input_dim参数,如何传递的?4、*args与**kwargs使用4.1 *args的用法4.2 **kwargs的用法1、背景在keras.layers的Sequential 顺序模型API中,顺序模型是多个网络层的线性堆叠,可以通过将层的列表传递给Sequential 的构造函数。包含的方法和属性有:model.layers 是包含模型网络层的展平原创 2021-04-13 16:40:34 · 6728 阅读 · 1 评论 -
Kaggle猫狗识别Pytorch详细搭建过程
@创建于:20210317@修改于:20210317Kaggle猫狗识别Pytorch详细搭建过程对应github感谢原博主!转载 2021-03-17 14:26:27 · 622 阅读 · 0 评论 -
LSTM原理、参数介绍、Keras实现
@创建于:20210316@修改于:20210316LSTM原理及Keras中实现:20191207LSTM原理及Keras中实现:20200714人人都能看懂的LSTM:20171216人人都能看懂的GRU:20180102原创 2021-03-16 16:19:39 · 3341 阅读 · 0 评论