神经网络学习
黄_玫_瑰
这个作者很懒,什么都没留下…
展开
-
图神经网络(GNN)
GNNhttps//graph-neural-networks.github.io/index.html。原创 2022-07-29 09:54:20 · 151 阅读 · 1 评论 -
keras写自己的LOSS函数,但是没办法进入调试怎么办?
非常简单,加一句话即可:tf.config.experimental_run_functions_eagerly(True)原创 2021-09-03 17:03:33 · 281 阅读 · 1 评论 -
TensorFlowan安装出错;
tensorflow安装完成后出现:点击如下连接:https://support.microsoft.com/zh-cn/help/2977003/the-latest-supported-visual-c-downloads,下载并安装需要的可再发行软件包;安装后即可使用tensorflow。原创 2020-11-17 15:34:38 · 92 阅读 · 0 评论 -
RNN和LSTM相关资料
1.https://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/2.https://machinelearningmastery.com/rnn-unrolling/3.https://pathmind.com/wiki/lstm4.https://adventuresinmachinelearning.com/keras-lstm-tutorial/原创 2020-08-03 14:18:53 · 105 阅读 · 0 评论 -
神经网络解读——一些关键词语和使用
1.卷积层的设定:No cov,1layer,2layer,...,nlayer。2.卷积层隐藏单元的数量:3.最优池大小:4.backpropagation through time (BPTT):BPTT算法是常用的训练RNN的方法,其实本质还是BP算法,只不过RNN处理时间序列数据,所以要基于时间反向传播,故叫随时间反向传播。BPTT的中心思想和BP算法相同,沿着需要优化的参数的负梯度方向不断寻找更优的点直至收敛。综上所述,BPTT算法本质还是BP算法,BP算法本质还是梯度下降法,那么求各原创 2020-08-03 10:10:52 · 283 阅读 · 0 评论 -
神经网络的基本作用
1.损失函数:均方误差是回归任务中最常用的性能度量,因此我们可试图让均方误差最小化。2. 激活函数:激活函数又称非线性映射,顾名思义,激活函数的引入是为了增加整个网络的表达能力(即非线性)。若干线性操作层的堆叠仍然只能起到线性映射的作用,无法形成复杂的函数。3. 卷积运算:卷积是一种有效的特征提取方法。卷积是一种局部操作,通过一定大小的卷积核作用于局部图像区域获得图像的局部信息。我们现在使用三种边缘卷积核(亦称滤波器),整体边缘滤波器、横向边缘滤波器和纵向边缘滤波器。4. 池化:池化(Pool.原创 2020-08-02 11:01:24 · 2282 阅读 · 0 评论