机器学习笔记
文章平均质量分 90
ForeverHaibara
这个作者很懒,什么都没留下…
展开
-
tensorflow.keras 2.x版本DeepDream图像处理实战
文章目录库的导入模型建立构建Loss函数辅助函数实验测试本文是个人对《Deep Learning with Python》一书的学习笔记。使用 VSCode 下的 ipynb (python notebook, python 3.8.4 64-bit).由于原书的代码使用的tensorflow,keras,scipy的版本较为古老,在新版本(tensorflow 2.x 等)条件下已无法直接运行。经过不断调整后代码能成功在新的版本下运行。库的导入先来看一下使用的库及版本。import tens原创 2021-08-20 16:36:17 · 806 阅读 · 0 评论 -
tensorflow.keras实现IMDB情感分类实战
文章目录数据准备数据预处理模型训练训练效果可视化实验测试Embedding可视化本文是个人对《Deep Learning with Python》一书的学习笔记。使用 VSCode 下的 ipynb (python notebook).数据准备在 http://mng.bz/0tIo 下载IMDB数据集(57.9MB)并解压。在 \acllmdb\train 路径下,\neg 文件夹中存有 12500 个对电影的负面评价txt, \pos 文件夹中存有 12500 个对电影的正面评价txt.读取所有原创 2021-08-17 00:25:54 · 822 阅读 · 0 评论 -
池化层的反向传播
文章目录前向传播平均池化最大池化反向传播平均池化最大池化神经网络的池化层一般是没有参数更新的,但是它仍旧要参与反向传播的参数传递。那应该怎么传递呢?前向传播平均池化和最大池化是两种较为常见的池化方式。先来回顾一下池化层的前向传播方式。以输入 3x3, 池化核 2x2 为例,(无填充(padding))则输出为 2x2平均池化[x11x12x13x21x22x23x31x32x33]→[x11+x12+x21+x224x12+x13+x22+x234x21+x22+x31+x324x22+x2原创 2021-05-04 00:00:02 · 430 阅读 · 0 评论 -
优雅地理解神经网络反向传播 —— 将每一层视作对象
文章目录主要代码前向传播反向传播参数更新用过tensorflow等的都知道,神经网络不同的 Layers 像拼图一样几乎可以随心所欲地拼接。每一个层相当于一个对象,可以实现前向传播、反向传播、参数更新,只需要按顺序调用它们就行了。那么,如果试图使用纯 numpy 写这样的神经网络,是怎么实现的呢?主要代码想要实现一个名为Neuro的神经网络类, structs是一个由层(Layer)构成的列表。每一个层(Layer)都能被调用 forward, backward, update 三个函数进行前向传原创 2021-04-13 23:23:13 · 261 阅读 · 0 评论 -
神经网络权重不更新与初始化
神经网络权重不更新与初始化文章目录神经网络权重不更新与初始化问题代码原因分析1.初始化权重全为02.初始化权重全相等解决问题在手敲神经网络进行训练时,发现神经网络权重w并没有更新。代码主要代码如下(activations.activator 是用来返回激活函数的函数指针的)import activationsimport numpy as npimport pandas as pdclass Neuro(): def __init__(self,cellnum,learning原创 2021-03-27 23:43:42 · 1955 阅读 · 1 评论