![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
文章平均质量分 79
Joanne Sherkay
这个作者很懒,什么都没留下…
展开
-
【北京大学】Tensorflow1笔记(2)
【北京大学】1 TensorFlow1.x中Python基础知识3.1 为了使得linux系统更方便使用vim。更改vim配置vim ~/.vimrc#i写入以下内容 set ts = 4set nu#按"ESC"退出插入模式 :wq保存 :w 保存文件但不退出vi:w file 将修改另外保存到file中,不退出vi:w! 强制保存,不推出vi:wq 保存文件并退出vi:wq! 强制保存文件,并退出viq: 不保存文件,退出vi:q! 不保存文件,强制退出vi:e! 放弃所有修原创 2021-08-06 20:28:19 · 93 阅读 · 0 评论 -
北大Tensorflow2.0(二、三、四)
总目录【tensorlfow2】安装及简介全连接神经网络北大Tensorflow2.0(一)激活函数类似于归一化数据,常用relu解决了梯度消失问题 (在正区间) (2) 只需判断输入是否大于0,计算速度快(3) 收敛速度远快于sigmoid和tanh缺点:(1) 输出非0均值,使收敛慢(2) Dead RelU问题:某些神经元可能永远不会被激活(输入为负数时结果为0),导致相应的参数永远不能被更新。解决方法:设置小些的学习率,减少参数变化输入特征标准化,即让输入特征满足以0为均值,原创 2021-08-05 01:04:57 · 484 阅读 · 0 评论 -
Tensorflow1笔记8
【北京大学】12 TensorFlow1.x的卷积神经网络模型VGGNet实现张量是多维数组常用函数(2)np.load /np.save将数组以二进制格式读出或写入磁盘,扩展名为.npy···np.save(“名.npy”,某数组)某变量 = np.load(“名.npy”,encoding ="").item()#encoding可不写,有三个选项latin1 ASCI···(5)tf.nn.bias_add(乘加和,bias)#把bias加到乘加和上(6)tf.reshape(te原创 2021-08-02 16:25:36 · 320 阅读 · 0 评论 -
【北京大学】Tensorflow1笔记6、7
【北京大学】Tensorflow1笔记原创 2021-07-31 17:29:30 · 372 阅读 · 0 评论 -
【北京大学】Tensorflow1笔记4、5
4 TensorFlow1.x的反向传播推导与实现一、神经网络实现过程(步骤1~3是训练过程 步骤4是使用过程)1、准备数据集,提取特征,作为输入喂给神经网络(neural network,NN)2、搭建NN结构,从输入到输出(先搭建计算图,再用会话执行)(NN前向传播算法–>计算输出)3、大量特征数据喂给NN,迭代优化NN参数(NN反向传播算法–>优化NN参数)4、使用训练好的模型预测和分类前向传播:搭建神经网络模型,让神经网络NN实现推理过程计算节点模板#变量初始化,计算原创 2021-07-29 19:04:17 · 182 阅读 · 0 评论 -
【tensorlfow2】安装及简介全连接神经网络
【tensorlfow】全连接神经网络FC-DNNAnaconda+Tensorflow2.0安装教程原创 2021-03-04 17:39:38 · 595 阅读 · 1 评论 -
2021-03-26
深入浅出通信原理Python代码版【Python】实现BPSK、QPSK、QAM信号调制https://betterbench.blog.csdn.net/article/details/115035737原创 2021-03-26 17:01:20 · 86 阅读 · 0 评论 -
北大Tensorflow2.0(一)
【北京大学】Tensorflow2.0在线源码:https://github.com/jlff/tf2_notes【参考】【北京大学】Tensorflow2.0搭建一个神经网络入门Tf2.0第一讲1、鸢尾花分类(Iris)标题原创 2021-03-19 21:25:13 · 447 阅读 · 0 评论