![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Tensorflow
开数据挖掘机的小可爱
这个作者很懒,什么都没留下…
展开
-
【排坑】使用NLTK做TFIDF时出现Resource punkt not found. Please use the NLTK Downloader to obtain the resource:
做文本分析时遇到的坑+1问题描述:使用NLTK做TFIDF时出现Resource punkt not found. Please use the NLTK Downloader to obtain the resource:解决办法:从这里 http://www.nltk.org/nltk_data/.下载Punkt Tokenizer文件下载后是个压缩包,需要解压,选择报错的文件夹下任意文件夹,在其下建立新文件夹(nltk_data→tokenizers),然后解压到tokenizers即可原创 2021-12-14 10:59:52 · 1174 阅读 · 0 评论 -
‘Tensor‘ object has no attribute ‘_keras_history‘——keras和tensorflow版本不兼容
keras和tensorflow版本不兼容原创 2021-12-06 16:34:54 · 1537 阅读 · 1 评论 -
jupyter如何导入CRF的包
jupyter导入CRF包原创 2021-12-06 11:18:13 · 311 阅读 · 0 评论 -
【深度学习】——优化器
神经网络参数优化器 神经网络的训练过程是通过迭代更新超参数来最小化损失函数的过程,最终目标是找到使损失函数最小,最能准确预测的超参数组合。而在更新迭代超参数时就需要用到不同的优化器,本文简要介绍几种常用的优化器。1.优化器基本步骤①计算t时刻损失函数关于当前参数的梯度:②计算t时刻的一阶动量mt(与梯度相关的函数)和二阶动量Vt(与梯度平方相关的函数)③计算t时刻下降梯度:④更新t+1时刻参数: 各个优化器的基本步骤和原理都是这样的,优化器的区别就是一阶动量和二阶动量的设计不同。2.SG原创 2020-12-27 22:58:18 · 939 阅读 · 0 评论 -
【深度学习】——神经网络中常用的激活函数:sigmoid、Relu、Tanh函数
激活函数 实际中的很多事情并不能简单的用线性关系的组合来描述。在神经网络中,如果没有激活函数,那么就相当于很多线性分类器的组合,当我们要求解的关系中存在非线性关系时,无论多么复杂的网络都会产生欠拟合。激活函数就是给其加入一些非线性因素,使其能够处理复杂关系。1.Sigmoid函数:把输入值映射到[0,1],其中0表示完全不激活,1表示完全激活其图像为:特点:①sigmoid函数的导数取值范围在【0,0.25】之间,在深度网络中,需要用链式法则多次求导,导数为多个在【0,0。25】之间的数相乘,结果原创 2020-12-27 19:36:40 · 3236 阅读 · 0 评论 -
【Tensorflow】——张量:创建、常用函数
TensorflowTensor(张量)一、 创建张量1. 直接创建2.用numpy数据类型转换为tensor类型3.创建特殊的张量二、 Tensorflow常用函数1.平均、求和2. 标记可训练变量:3. 数学运算:4. 切分传入张量的第一维度,生成特征/标签对,构建数据集5. 计算张量的梯度6.遍历每个元素7.独热编码8.激活函数softmax(y)9. 自更新函数10.获取张量沿指定维度最大值的索引 Tensorflow是当下最流行的深度学习框架之一, Tensorflow可以分为tensor(张原创 2020-12-27 15:31:42 · 480 阅读 · 0 评论