声明
声明:本系列博客是我在学习人工智能实践:TensorFlow笔记(曹健,北京大学,软件与微电子学院)所做的笔记。所以,其中的绝大部分内容引自这系列视频,博客中的代码也是视频配套所附带的代码,其中部分代码可能会因需要而改动。侵删。在本系列博客中,其中包含视频中的引用,也包括我自己对知识的理解,思考和总结。本系列博客的目的主要有两个,一个是可以作为我自己的学习笔记,时常复习巩固。第二个是可以为想学习TensorFlow 2 相关知识的朋友提供一些参考。
正文
神经网络复杂率
神经网络的复杂度分为空间复杂度和时间复杂度。
- 空间复杂度:
用神经网络层数和神经网络中待优化参数的个数表示。
计算神经网络层数时只统计具有运算能力的层,输入层仅把数据传输过来,没有运算,所以在统计神经网络层数时不算输入层。
层数=隐藏层的层数+1个输出层
总参数=总w+总b
- 时间复杂度:
用神经网络中乘加运算次数表示
感谢观看!
如有错误,欢迎批评指正!