**机器学习笔记---TensorFlow(version1.4.0,Python3.7.6) 神经网络---学习笔记1 **

本文记录了使用TensorFlow 1.4.0实现神经网络的学习过程,包括神经网络的基本结构、损失函数、优化器、激活函数及避免过拟合的方法。遇到的挑战包括TensorFlow函数弃用、MNIST数据集下载问题以及如何使用Pycharm与TensorBoard配合。此外,讨论了神经网络的调参难点,如隐藏层和神经元数量的选择、优化器和激活函数的影响。
摘要由CSDN通过智能技术生成

#注:学习资料来源于B站UP主:莫烦python,感兴趣童鞋可以去学习观看,PS B站有很多很好的机器学习视频。

看课程基本掌握了TensorFlow实现神经网络的过程。
视频里面TensorFlow版本比较早,所以在自己本地TensorFlow实现的时候会遇到一些函数弃用的问题,还遇到一个就是MNIST数据集下载的问题,后来通过其他网友分享的方法,就是把源代码的url是访问Google的,改成另一个就可以了,暂时忘记了怎么改,但是网上有相关资料,查一下就知道了。

看视频又一次加深了对神经网络的了解,之前从其他资料零散学习,带着一些疑问在B站视频这里得到系统的解答,巩固了一下。

大概记录一下自己对神经网络算法中重要的点的了解:
1、神经网络的基本结构包括神经层、神经元,神经层又分为输入层即特征X层,隐藏层Hidden Layer,输出层Output Layer(Y)。
2、损失函数:线性函数的损失函数loss=(predictionvalue−realvalue)^2;多分类的损失函数TensorFlow提供的cross_entropy交叉熵又称为KL散度,具体引用方法:cross_entropy=tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction), reduction_indices=[1])),交叉熵大概就是给定的p(实际分布)下,q分布(预测)的期望熵,当p=q的时候即为样本的期望熵,特别的当是二分类的时候,此时交叉熵即与用极大似然方法求解LogisticsRegression的Loss函数结果一样。
3、优化器Optimizer:即对Loss函数求最优

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值