Tensorflow
文章平均质量分 55
ldinvicible
这个作者很懒,什么都没留下…
展开
-
NXP mx8平台tensorflow-lite build error
NXP提供的方案Compiling L5.4.3_1.0.0 BSP On Ubuntu 180.4 LTS - NXP Community1、使用bitbake编译tensorflow-litebitbake tensorflow-lite -c do_configure -v -f出现如下错误,此时可以看到下载错误的软件包FAILED: ruy-populate-prefix/src/ruy-populate-stamp/ruy-populate-download具体路径为...原创 2021-11-25 11:08:50 · 1544 阅读 · 0 评论 -
lesson28-29f复现已有的卷积神经网络vgg16图像识别
https://www.bilibili.com/video/av22530538/?p=28原创 2018-11-25 09:53:03 · 3504 阅读 · 0 评论 -
lesson26-27卷积神经网络,lenet5代码讲解
https://www.bilibili.com/video/av22530538/?p=27##mnist_lenet5_forward.py#encoding:utf-8import tensorflow as tfIMAGE_SIZE = 28NUM_CHANNELS = 1CONV1_SIZE = 5CONV1_KERNEL_NUM = 32CONV2_SIZE...原创 2018-10-14 15:52:27 · 880 阅读 · 0 评论 -
lession25 制作数据集
mnist_test.py#encoding:utf-8#####lesson25 输入手写数字图片输出识别结果import tensorflow as tf#MNIST数据集输出识别准确率#MNIST数据集:#提供6w张28*28像素点的0-9手写数字图片和标签,用于训练#提供1w张28*28像素点的0-9手写数字图片和标签,用于测试#每张图片的784个像素点...原创 2018-10-14 09:30:50 · 154 阅读 · 0 评论 -
lesson22-24 MNIST数据集,模块化搭建神经网络八股,手写数字识别准确率输出
https://www.bilibili.com/video/av25541757/?p=11import tensorflow as tf#MNIST数据集输出识别准确率#MNIST数据集:#提供6w张28*28像素点的0-9手写数字图片和标签,用于训练#提供1w张28*28像素点的0-9手写数字图片和标签,用于测试#每张图片的784个像素点(28*28=784)组成长...原创 2018-10-07 14:48:51 · 233 阅读 · 0 评论 -
lesson19 正则化
https://www.bilibili.com/video/av22530538/?p=19#coding:uft-8#lesson19 正则化#正则化缓解过拟合#正则化在损失函数中引入模型复杂度指标,利用给W加全值,强化了训练数据在噪声(一般不正则化b)#loss = loss(y与y_)+REGULARIZER*loss(w)# loss(y与y_)--->模型中所有参...原创 2018-09-24 13:45:50 · 1283 阅读 · 0 评论 -
lesson20 神经网络搭建八股
https://www.bilibili.com/video/av22530538/?p=20#lesson20 神经网络搭建八股#搭建模块化的神经网络八股:#前向传播就是搭建网络,设计网络结构(forward.py)#def forward(x, regularizer):# w=# b=# y=# return y#def get_weigh...原创 2018-09-24 11:52:09 · 257 阅读 · 0 评论 -
lesson14 前向传播
https://www.bilibili.com/video/av22530538/?p=14#前向传播#参数:即xn ---wn --->y --->线上的权重W,用变量表示,随机给初值。#w=tf.Variable(tf.random_normal([2,3],stddev=2,mean=0,seed=1))# 正态分布 产生...原创 2018-09-23 23:31:39 · 125 阅读 · 0 评论 -
lesson15 反向传播
https://www.bilibili.com/video/av22530538/?p=15#反向传播===》训练模型参数,在所有参数上用梯度下降,#使NN模型在训练数据上的损失函数最小。#损失函数(loss):预测值y)与已知答案(y_)的差距:#均方误差MSE:MES(y_,y)=(y-y_)^2求和/n#loss = tf.reduce_mean(tf.square(y_-y)...原创 2018-09-23 22:52:34 · 266 阅读 · 0 评论 -
lesson16 损失函数
https://www.bilibili.com/video/av22530538/?p=16#lesson16 损失函数lesson16 损失函数#1943年McCulloch Pittls神经元模型#x(n)-------->f ---->F(x(n)w(n)+b)# 激活函数 偏置项bias#激活函数acti...原创 2018-09-23 21:51:26 · 193 阅读 · 0 评论 -
lesson18 滑动平均值
https://www.bilibili.com/video/av22530538/?p=18#lesson18 滑动平均值##滑动平均(影子值):记录了每个参数一段时间内过往值的平均,增加了模型的泛化性。#针对所有参数:w和b(像是给参数加了影子,参数变化,影子缓慢追随。)#影子=衰减率*影子 +(1-衰减率)*参数 影子初值=参数初值#衰减率 = min「M...原创 2018-09-23 20:58:28 · 503 阅读 · 0 评论 -
lesson17 学习率
https://www.bilibili.com/video/av22530538/?p=17#lesson17 学习率#学习率learing_rate:每次参数更新的幅度#wn+1 = wn - learning_rate德尔塔#更新后的参数 当前参数 学习率 损失函数的梯度(导数)#eg:损失函数loss = ...原创 2018-09-23 21:25:14 · 278 阅读 · 0 评论 -
lesson13 张量、计算图、会话
https://www.bilibili.com/video/av22530538/?p=13#lesson13 张量、计算图,会话#搭建第一个神经网络,总结搭建八股#基于Tensorflow的NN:用张量表示数据,用计算图搭建神经网络,#用会话执行计算图,优化线上的权重(参数),得到模型。##张量:多维数组(列表) 阶:张量的维数#维数 阶 名字...原创 2018-09-23 23:55:01 · 175 阅读 · 0 评论