Machine Learning
文章平均质量分 85
机器学习相关知识点
linrongchen
努力做好知识的搬运工,争取做知识的生产者!
展开
-
MobileNet原理学习
MobileNet V1Depthwise separable convolution(深度可分离卷积)MobileNet的基本单元是深度可分离卷积(depthwise separable convolution),其可以分解为两个更小的操作:depthwise convolution和pointwise convolution。depthwise convolution和标准卷积不同,对于标准卷积其卷积核是用在所有的输入通道上(input channels),而depthwise convolut原创 2021-05-23 10:58:33 · 781 阅读 · 0 评论 -
怎么理解tensorflow中的张量以及shape,维度
tensor怎么理解tensor可以理解成一种容器 / 数据结构。tensor也可以理解成多维数组,当维度为0,1,2…时依次为标量,向量,矩阵等等。tensor中维度的理解,或者说shape的理解shape参数的个数应为维度数,每一个参数的值代表该维度上的长度,例如:shape=(1,2,4)表示有3维,一维长度1,二维长度2,三维长度4维度的长度,就是左数第几个中括号组之间的元素...原创 2020-02-12 21:00:01 · 1792 阅读 · 0 评论 -
《TensorFlow深度学习》 笔记(三)
笔记卷积神经网络本质上深度学习和神经网络所指代的是同一类算法。1980 年代,基于生物神经元数学 模型的多层感知机(Multi-Layer Perceptron,简称 MLP)实现的网络模型就被叫作神经网络。可以避免全连接网络的参数量过大的缺陷:全连接网络层的每个输出节点都与所有的输入节点相连接,用于提取所有输入节点的 特征信息,这种稠密的连接方式是全连接层参数量大、计算代价高的根本原因。...原创 2020-02-11 15:00:21 · 1783 阅读 · 1 评论 -
《TensorFlow深度学习》笔记(二)
反向传播算法激活函数import numpy as np # 导入 numpy 库 def sigmoid(x): # 实现 sigmoid 函数 return 1 / (1 + np.exp(-x)) def derivative(x): # sigmoid 导数的计算 # sigmoid 函数的表达式由手动推导而得 return ...原创 2020-02-11 11:22:29 · 1141 阅读 · 1 评论 -
《TensorFlow深度学习》笔记(一)
TensorFlow 进阶最值、均值、和通过 tf.reduce_max、tf.reduce_min、tf.reduce_mean、tf.reduce_sum 函数可以求解张量 在某个维度上的最大、最小、均值、和张量比较为了计算分类任务的准确率等指标,一般需要将预测结果和真实标签比较,统计比较 结果中正确的数量来计算准确率,通过 tf.argmax 获取预测类别经典数据集加载...原创 2020-02-10 15:08:53 · 1017 阅读 · 0 评论 -
语音(识别)处理教程
Speech Recognition 语音识别 篇原创 2020-08-27 22:03:45 · 1064 阅读 · 0 评论