随笔小记(二十七)

神经网络中Epoch、Iteration、Batchsize相关理解和说明
batchsize:中文翻译为批大小(批尺寸)。简单点说,批量大小将决定我们一次训练的样本数目。batch_size将影响到模型的优化程度和速度。
为什么需要有Batch_Size:batchsize的正确选择是为了在内存效率和内存容量之间寻找最佳平衡。
iteration:中文翻译为迭代。迭代是重复反馈的动作,神经网络中我们希望通过迭代进行多次的训练以达到所需的目标或结果。每一次迭代得到的结果都会被作为下一次迭代的初始值。
一个迭代=一个正向通过+一个反向通过。
epoch:中文翻译为时期。一个时期=所有训练样本的一个正向传递和一个反向传递。
在这里插入图片描述在这里插入图片描述参考链接:https://blog.csdn.net/program_developer/article/details/78597738
在这里插入图片描述如何理解keras中的shape/input_shape
在这里插入图片描述参考链接:https://blog.csdn.net/x_ym/article/details/77728732

Keras model.fit() 函数
在这里插入图片描述参考链接:https://www.jianshu.com/p/9ba27074044f

深度学习中Keras中的Embedding层的理解与使用
在这里插入图片描述参考链接:
http://frankchen.xyz/2017/12/18/How-to-Use-Word-Embedding-Layers-for-Deep-Learning-with-Keras/

keras源码分析-Tokenizer
tokenizer是什么?
计算机在处理语言文字时,是无法理解文字的含义,通常会把一个词(中文单个字或者词组认为是一个词)转化为一个正整数,于是一个文本就变成了一个序列。而tokenizer的核心任务就是做这个事情。
在这里插入图片描述参考链接:https://www.jianshu.com/p/ac721387fe48

pad_sequences序列预处理
在这里插入图片描述在这里插入图片描述在这里插入图片描述Python List list()方法
在这里插入图片描述在这里插入图片描述
LSTM的参数return_sequences含义
在这里插入图片描述Keras model.fit()参数详解
在这里插入图片描述在这里插入图片描述参考链接:https://blog.csdn.net/weixin_40161254/article/details/102519416

机器学习中的F1-score
在这里插入图片描述在这里插入图片描述在这里插入图片描述
参考链接:https://blog.csdn.net/qq_14997473/article/details/82684300?utm_source=blogxgwz6

准确率(Accuracy),精确率(Precision),召回率(Recall)和F1-Measure

在这里插入图片描述在这里插入图片描述参考链接:http://www.mamicode.com/info-detail-2999758.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值