深度学习
文章平均质量分 67
ITLiu_JH
IT
展开
-
SnowNLP文本情感分析
SnowNLP文本情感分析原创 2022-11-27 11:34:46 · 2579 阅读 · 2 评论 -
Cemotion情感分析
Cemotion文本情感分析原创 2022-11-27 11:19:22 · 1461 阅读 · 0 评论 -
卷积神经网络-池化与Python实现
池化与实现原创 2022-11-06 13:19:41 · 1064 阅读 · 0 评论 -
BP算法与python代码实现
反向传播算法的基本原理以及python的实现实例。原创 2022-09-27 09:13:58 · 1393 阅读 · 0 评论 -
数据分析-循环神经网络-LSTM-案例
数据分析-RNN-LSTM原创 2022-04-01 10:46:27 · 4475 阅读 · 5 评论 -
数据分析-神经网络-CNN-猫狗识别案例
猫狗大战原创 2022-03-29 09:30:01 · 1834 阅读 · 1 评论 -
数据分析-卷积神经网络-CNN
卷积神经网络原创 2022-03-29 09:05:44 · 1342 阅读 · 0 评论 -
数据分析-神经网络-损失函数
损失函数原创 2022-03-28 08:36:32 · 4778 阅读 · 0 评论 -
数据分析-深度学习-前馈神经网络-回归-Tensorflow
神经网络-预测保险费用原创 2022-03-28 08:21:27 · 2956 阅读 · 0 评论 -
数据分析-深度学习-前馈神经网络-分类-Tensorflow
前馈神经网络在前馈神经网络中,每层包含多个神经元,每一层的神经元接受前一层传导的神经元信号,并产生信号输出到下一层。从输入层,经过隐含层(可多层),最后到输出层,整个网络中无反馈,信号从输入层到输出层单向传播。前馈神经网络也被成为多层感知器。tensorflow的实现...原创 2022-03-26 08:24:24 · 1758 阅读 · 1 评论 -
数据分析-深度学习-激活函数
单神经节点为n个输入,为输入对应的权重,b为偏置,f为激活函数。常用的激活函数Sigmoid函数优点具有较好的可解释性输出范围有限单调连续缺点函数饱和,梯度容易消失输出不以0为中心Tanh函数优点比Sigmoid收敛速度快输出以0为中心缺点函数饱和,梯度容易消失ReLU(Rectified Linear Units)函数...原创 2022-03-27 07:16:09 · 242 阅读 · 0 评论 -
数据分析-深度学习-神经网络
BP神经网络案例原创 2022-03-26 08:23:17 · 1389 阅读 · 0 评论