![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
【北京大学】Tensorflow2.0 笔记
文章平均质量分 78
1、神经网络计算
2、神经网络优化
3、神经网络八股
4、网络八股扩展
5、卷积神经网络
6、循环神经网络
羊飘
要么独处,要么庸俗
展开
-
【北京大学】Tensorflow2.0 第二章笔记
第二章 参数及优化基础知识点Amda优化器基础知识点tf.where(条件语句,真返回A,假返回B)条件语句为真返回A,假返回BA = tf.constant([4,3,2])B = tf.constant([2,3,5])C = tf.where(tf.greater(a,b),A,B) # 若A>B返回A对应位置的元素,否则返回B中元素此时C = [4,3,5]np.random.RandomState(seed)返回[0,1)的一个随机数:np.random.Ran原创 2021-08-18 11:53:24 · 150 阅读 · 0 评论 -
【北京大学】Tensorflow2.0 第三章笔记
第三章 搭建网络八股六步法六步之第三步六步之第四步六步之第五步六步之第六步实例1:识别鸢尾花实例2:MNIST数据集实例3:Fashion数据集解决部分跳连的网络结构实例3:Fashion数据集_class实现六步法六步之第三步Model = tf.keras.models.Sequential([网络结构]) 描述各层网络,可以将sequential看成一个容器,这个容器里封装一个神经网络结构,在sequential中要描述从输入层到输出层的每一层网络结构。举例:拉直层:tf.keras.原创 2021-08-18 11:34:27 · 177 阅读 · 0 评论 -
【北京大学】Tensorflow2.0 第五章笔记
第五章 经典神经网络1.全连接层2.卷积网络(CBAPD)基础知识C:卷积层实现B:标准化(BN)A:激活层(Activation)P:池化层(Pooling)D:舍弃(Dropout)使用总结实例3.LeNet4.AlexNet5.InceptionNet6.ResNet1.全连接层全连接NN:每个神经元与前后相邻层的每一个神经元都有连接关系,输入时特征,输出为预测结果参数个数:Σ(前层*后层w+后层b)在实际中,经常参数过多,因此会对原始图像进行特征提取,再把提取到的特征送给全连接网络。2.卷原创 2021-08-20 16:49:59 · 127 阅读 · 0 评论 -
【北京大学】Tensorflow2.0 第一章笔记
第一章 线性回归1.基础知识2.线性回归代码1.基础知识1.1创建:tf.constant(内容,dtype=数据类型(可选))数据类型:tf.int32tf.float32tf.float64tf.booltf.string1.2创建一个Tensor:将numpy数据类型转换为tensor数据类型tf.convert_to_tensor(数据名,dtype=数据类型(可选))Eg:a = np.arange(5)b = tf.convert_tensor(a,dtype=原创 2021-08-19 16:47:23 · 173 阅读 · 0 评论 -
【北京大学】Tensorflow2.0 第四章笔记
第四章 参数及优化1.自定义数据集2.数据增强:帮助扩展数据集代码1:数据增强3.断点续训代码2:断点续训5.参数提取6.loss/acc可视化7.预测(实用)代码3:预测1.自定义数据集mnist = tf.keras.dataset.mnist(x_train,y_train),(x_test,y_test) = mnist.load_data()更改load_data()使其变成自定义的数据,使用原生python文件模块。2.数据增强:帮助扩展数据集image_gen_train = t原创 2021-08-18 17:58:01 · 159 阅读 · 0 评论