人工智能
为不为
这个作者很懒,什么都没留下…
展开
-
人工智能从入门到精通(8)-mnist实现
下面开始给出mnist的tensorflow实现代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#MNIST数据集相关常数INPUT_NODE=784OUTPUT_NODE=10#配置神经网络参数LAYER1_NODE=500BATCH_SIZE=100LEARNING_R原创 2017-11-28 19:41:33 · 463 阅读 · 0 评论 -
人工智能从入门到精通(17)
tensorflow多线程基础: 1.队列的使用import tensorflow as tfq=tf.FIFOQueue(2,"int32")init=q.enqueue_many(([0,10],))x=q.dequeue()#第一个元素出队列y=x+1q_inc=q.enqueue([y])with tf.Session() as sess: init.run()原创 2017-12-05 22:43:30 · 273 阅读 · 0 评论 -
人工智能从入门到精通(7)-mnist准备
mnist准备首先要下载训练图片 http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_download.html 下载数据网站 运行如下代码from tensorflow.examples.tutorials.mnist import input_datamnist=input_data.read_原创 2017-11-25 16:24:31 · 366 阅读 · 0 评论 -
人工智能从入门到精通(6)
神经网络优化算法梯度下降 梯度下降:用θ 表示神经网络的参数,J(θ)表示给定参数的情况下,损失函数的大小。梯度下降算法会迭代更新参数θ,不断沿着梯度的方向让参数朝着总损失更小的方向更新。 梯度下降算法主要优化单个参数,而反向传播算法是要算有参数上使用梯度下降算法学习率学习率:控制参数更新的速度,太大容易在极优值两侧移动,太小速度太慢过拟合 正则化的思想就是在损失函数中加入刻原创 2017-11-25 15:04:07 · 369 阅读 · 0 评论 -
人工智能从入门到精通(5)
第五天tf.where 和tf.greater的用法import tensorflow as tfv1=tf.constant([1.0,2.0,3.0,4.0])v2=tf.constant([4.0,3.0,2.0,1.0])sess=tf.InteractiveSession()print (tf.greater(v1,v2).eval())print (tf.where(tf.grea原创 2017-11-25 13:24:41 · 632 阅读 · 0 评论 -
人工智能从入门到精通(16)
图像数据处理统一输入数据格式图像数据预处理tensorflow多线程数据预处理TFRecord样例程序下面的代码是将输入数据转成TFRecord的格式import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataimport numpy as npdef _int64_feature(va原创 2017-12-04 22:36:40 · 530 阅读 · 0 评论 -
人工智能从入门到精通(4)
第四天 损失函数的学习深度学习与深层神经网络 深度学习两个重要特性:多层和非线性线性模型的局限性 线性模型的输出为输入的加权和,解决问题的能力是有限的激活函数实现去线性化 如果一个神经元的输出通过一个非线性函数,那么整个神经网络的模型也就不再是线性的了。多层网络解决异或问题 感知机模型无法解决异或问题,唯有加入隐藏层后,才能很好的解决异或问题,因为深层网络有更好的组合特征原创 2017-11-23 23:11:26 · 269 阅读 · 0 评论 -
人工智能从入门到精通(15)-卷积网络在数字识别的应用
经典卷积网络模型LeNet-5模型卷积层池化层卷积层池化层全连接层全连接层全连接层(近似)代码 trainimport osimport numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataimport mnist_inference#data原创 2017-12-03 22:11:55 · 326 阅读 · 0 评论 -
人工智能从入门到精通(13)
tensorflow最佳实践样例程序当程序退出或者训练好的模型没有保存,都会导致模型无法复用,所以需要每隔一段时间保存一次模型训练的中间结果。 mnist_inference.pyimport tensorflow as tffrom tensorflow.python.platform import gfileINPUT_NODE=784OUTPUT_NODE=10LAYER1_NODE=原创 2017-12-01 22:44:48 · 418 阅读 · 0 评论 -
人工智能从入门到精通(2)
第二天 今天主要学习tensorflow的计算模型,数据模型和运行模型计算图 tensorflow中每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。import tensorflow as tfg1=tf.Graph()with g1.as_default(): v=tf.get_variable( "v",initializ原创 2017-11-20 22:41:46 · 367 阅读 · 0 评论 -
人工智能从入门到精通(3)
第三天 tensorflow实现神经网络tensorflow游乐场及神经网络简介 http://playground.tensorflow.org tensorflow游乐场网站 前向传播算法的学习 tf.matmul实现了矩阵乘法的功能import tensorflow as tfw1=tf.Variable(tf.random_normal([2,3],stddev原创 2017-11-22 20:57:20 · 519 阅读 · 0 评论 -
人工智能从入门到精通(12)
平均滑动模型存储:import tensorflow as tfv=tf.Variable(0,dtype=tf.float32,name="v")for variables in tf.all_variables(): print(variables.name)ema=tf.train.ExponentialMovingAverage(0.99)maintain_averages_o原创 2017-12-01 21:20:23 · 263 阅读 · 0 评论 -
人工智能从入门到精通(11)-基本概念
CNN,RNN ,DNN,LSTM https://www.zhihu.com/question/34681168 CNN,RNN ,DNN http://www.jianshu.com/p/9dc9f41f0b29 LSTM的理解 卷积,卷积核,池化 http://www.jianshu.com/p/606a33ba04ff原创 2017-11-30 09:49:01 · 292 阅读 · 0 评论 -
人工智能从入门到精通(10)
tensorflow模型持久化 为了可以让训练结果可以复用import tensorflow as tfv1=tf.Variable(tf.constant(1.0,shape=[1]),name="v1")v2=tf.Variable(tf.constant(2.0,shape=[1]),name="v2")result=v1+v2init_op=tf.initialize_all_v原创 2017-11-29 22:18:28 · 295 阅读 · 0 评论 -
人工智能从入门到精通(9)
变量管理下面两个是等价的 v=tf.get_variable("v",[1],initializer=tf.constant_initializer(1.0)) v=tf.get_variable("v",[1])import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datawith tf原创 2017-11-29 21:54:52 · 322 阅读 · 0 评论 -
人工智能从入门到精通(1)
第一天对于从事人工智能的猿友们,往往不知从哪里开始学习。本人也是从零开始学习。特地把学习记录下来。给自己和他人一起分享学习的经历。由于本人白天还要上班(从事java后端),所以只有晚上学习的时间。今天是我刚开始真正入住AI的一天。也是我第一次记录下来的一天。事前准备1.买了两本tensorflow的书 2.搭建了windows cpu版本的tensorflow 3.了解了人工智能,机器学习,深度原创 2017-11-19 22:03:11 · 1591 阅读 · 0 评论 -
人工智能从入门到精通(18)
循环神经网络 传统机器学习非常依赖于人工提取特征,就会遇到很多瓶颈的问提import numpy as npX=[1,2]state=[0.0,0.0]x_cell_state=np.asarray([[0.1,0.2],[0.3,0.4]])w_cell_input=np.asarray([0.5,0.6])b_cell=np.asarray([0.1,-0.1])w_outpu原创 2017-12-07 20:13:58 · 284 阅读 · 0 评论