深度学习
黑洲非人lyf
小码农
展开
-
AlphaGo的深度学习系统Tensorflow详细安装入门
谷歌就开源了其用来制作AlphaGo的深度学习系统Tensorflow,相信有不少同学曾经对着这款强大的机器学习系统蠢蠢欲动,但虽然有关Tensorflow的教程其实不少,甚至谷歌官方就在Tensorflow的官网给出了一份详细的教程,也有网站已经将其翻译成了中文(点击查看),但它仍然是有门槛的,尤其是对于对计算机及编程语言了解不深的同学,可能看着页面上凭空给出的代码陷入懵逼。在Lin原创 2017-07-28 10:12:12 · 2683 阅读 · 0 评论 -
深度学习框架Tensorflow学习--RNN实现识别数字
本文用到的公式基本来自Alex的论文,其中a表示汇集计算的值,b表示经过激活函数计算的值,w是不同节点之间连接的参数(具体睡谁连谁看下标),带下标k的是输出层,带下标h的是隐藏层相关的,除此之外你看到所有带括号的的函数都是激活函数, ϵ 和 δ 的定义看公式,L 是最后的Loss function,这里没有给出具体的计算方法,因为这和NN是一样的,可以看到输出层和普通的NN是完全一样的,接收隐藏层...原创 2018-05-29 21:29:30 · 794 阅读 · 0 评论 -
深度学习 NLP -- LSTM和GRU
变种:GRU原创 2018-11-29 17:09:17 · 2456 阅读 · 0 评论 -
NLP -- Word2Vector 深入学习
哈夫曼树(一)目录和前言(二)预备知识(三)背景知识(四)基于 Hierarchical Softmax 的模型(五)基于 Negative Sampling 的模型(六)若干源码细节get的知识:可以约定哈夫曼编码右边是0,左边是1。词频越大的词离根节点越近。权值大的为左孩子节点,权值小的为右孩子节点 ...原创 2018-12-13 17:45:20 · 1923 阅读 · 0 评论 -
机器学习--最大熵模型
参考链接:https://www.jianshu.com/p/e7c13002440dhttps://www.cnblogs.com/wxquare/p/5858008.html详解机器学习中的熵、条件熵、相对熵和交叉熵 https://www.cnblogs.com/kyrieng/p/8694705.htmlMaxEnt 模型的求解MaxEnt 模型最后被形式化为带有约束...原创 2019-01-17 20:13:04 · 517 阅读 · 0 评论 -
NLP--(八)聊天机器人(一)
NLP资料PDF链接 升级II:光是会BB还是不行,得有知识体系!才能解决用户的问题。我们可以用各种数据库,建立起一套体系,然后通过搜索的方式,来查找答案。比如,最简单的就是Python自己的graph数据结构来搭建一个“地图”。依据这个地图,我们可以清楚的找寻从一个地方到另一个地方的路径,然后作为回答,反馈给用户。In [17]:# 建立一个基于目标行业...原创 2019-01-23 20:24:59 · 989 阅读 · 0 评论 -
判别式模式和产生式模型
参考:https://blog.csdn.net/qq_15111861/article/details/82189216参考:https://blog.csdn.net/Yaphat/article/details/52574748特点:产生式模型:从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度,不关心判别边界。判别式模型:寻找不同类别之间的最优分类面,反映的是异...原创 2019-01-21 18:48:28 · 420 阅读 · 0 评论 -
NLP--词向量与相关应用(七)
NLP资料PDF链接原创 2019-01-16 21:34:11 · 1722 阅读 · 0 评论 -
NLP--(八)深度学习制作聊天机器人+VQA+图灵机器人(三)
NLP资料PDF链接 Seq2Seq:https://blog.csdn.net/gzmfxy/article/details/78691048 **********************************************************************************************VQA...原创 2019-01-28 16:56:59 · 832 阅读 · 0 评论 -
小象学院自然语言处理第二期---笔记
参考链接:机器学习:完整机器学习项目流程,数据清洗出错:chmod能改变权限,-R是目录下所有文件,777就是高权限(读、写、执行)chmod -R 777 * 意思就是将当前目录下所有文件都给予777权限这个在服务器里不能随便敲的,不能在根目录下进行此命令,因为有些进程是指定权限(如755、700...)才能运行的...,导致打不开linux系统,需重装。 1.信息熵...原创 2019-01-28 21:29:58 · 884 阅读 · 0 评论 -
HMM与分词、词性标注、命名实体识别
HMM自己的博客链接以上为之前的HMM总结的有点抽象,这次来个实际的小项目来总结一下参考自http://www.hankcs.com/nlp/hmm-and-segmentation-tagging-named-entity-recognition.html目录HMM描述例子描述求解最可能的天气这个例子的Python代码:NLP应用小结HMM(隐马尔可夫模型...原创 2019-02-21 15:58:04 · 818 阅读 · 0 评论 -
Tensorflow入门到实战二(求解线性回归)
求解线性回归代码块如下import tensorflow as tfimport numpy as npx_data = np.random.rand(100).astype(np.float32)y_data = 0.1*x_data +0.3print(tf.random_uniform([1],-1,1))weights = tf.Variable(tf.random_...原创 2019-02-25 18:44:08 · 266 阅读 · 0 评论 -
深度学习框架Tensorflow学习--CNN实现识别数字
参考链接:https://blog.csdn.net/qq_30159351/article/details/52641644本例子用到了minst数据库,通过训练CNN网络,实现手写数字的预测。首先先把数据集读取到程序中:mnist = input_data.read_data_sets('MNIST_data', one_hot=True)1然后开始定义输入数据,利用占位符# define p...原创 2018-05-28 21:57:12 · 1904 阅读 · 1 评论 -
python数据科学基础和吴恩达作业补缺补漏(三)
Implement the following function, which pads all the images of a batch of examples X with zeros. Use np.pad. Note if you want to pad the array "a" of shape (5,5,5,5,5)(5,5,5,5,5) with pad = 1 for the...原创 2018-05-23 22:38:43 · 966 阅读 · 0 评论 -
深度学习(二)神经网络基础之逻辑回归
转载自:https://blog.csdn.net/red_stone1/article/details/780182691. Neural Networks Overview首先,我们从整体结构上来大致看一下神经网络模型。前面的课程中,我们已经使用计算图的方式介绍了逻辑回归梯度下降算法的正向传播和反向传播两个过程。如下图所示。神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出...转载 2018-05-05 23:40:45 · 648 阅读 · 0 评论 -
深度学习(三)深层神经网络
转自:https://blog.csdn.net/red_stone1/article/details/78062345上节课我们主要介绍了浅层神经网络。首先介绍神经网络的基本结构,包括输入层,隐藏层和输出层。然后以简单的2 layer NN为例,详细推导了其正向传播过程和反向传播过程,使用梯度下降的方法优化神经网络参数。同时,我们还介绍了不同的激活函数,比较各自优缺点,讨论了激活函数必须是非线性...转载 2018-05-06 01:32:37 · 4691 阅读 · 1 评论 -
深度学习(四)深度学习的实用层面
转自:红色石头https://blog.csdn.net/red_stone1/article/details/78208851Andrew Ng的深度学习专项课程的第一门课《Neural Networks and Deep Learning》的5份笔记我已经整理完毕。迷路的小伙伴请见如下链接:Coursera吴恩达《神经网络与深度学习》课程笔记(1)– 深度学习概述Coursera吴恩达《神经网...转载 2018-05-06 13:32:42 · 660 阅读 · 0 评论 -
深度学习(五)优化算法--提高神经网络的训练速度和精度
转自:https://blog.csdn.net/red_stone1/article/details/78348753上节课我们主要介绍了如何建立一个实用的深度学习神经网络。包括Train/Dev/Test sets的比例选择,Bias和Variance的概念和区别:Bias对应欠拟合,Variance对应过拟合。接着,我们介绍了防止过拟合的两种方法:L2 regularization...原创 2018-05-06 22:30:13 · 51712 阅读 · 0 评论 -
深度学习(六)机器学习策略(上)
转载自:https://blog.csdn.net/red_stone1/article/details/78519599《Structuring Machine Learning Projects》(构建机器学习项目)这门课是Andrw Ng深度学习专项课程中的第三门课。这门课主要介绍机器学习中的一些策略和方法,让我们能够更快更有效地让机器学习系统工作,该门课共有两周的课时。1.转载 2018-05-06 23:44:59 · 904 阅读 · 0 评论 -
深度学习(七)机器学习策略(下)
转自:https://blog.csdn.net/red_stone1/article/details/78600255这是Andrew Ng深度学习专项课程第三门课《构建机器学习项目》的第二节笔记,第一节笔记入口:Coursera吴恩达《构建机器学习项目》课程笔记(1)– 机器学习策略(上)1. Carrying out error analysis对已经建立的机器学习模转载 2018-05-06 23:57:53 · 640 阅读 · 0 评论 -
吴恩达深度学习流程3部分笔记--强烈推荐(这里是重点Review的)
第一个是github的https://github.com/marsggbo/deeplearning.ai_JupyterNotebooks,以下就是:第一章 神经网络与深度学习(Neural Network & Deeplearning)DeepLearning.ai学习笔记(一)神经网络和深度学习--Week3浅层神经网络DeepLearning.ai学习笔记(一)神经网络和深度学习...原创 2018-05-13 18:03:13 · 2979 阅读 · 0 评论 -
python数据科学基础和吴恩达作业补缺补漏(一)
1.1 向量的1范数向量的1范数即:向量的各个元素的绝对值之和,上述向量a的1范数结果就是:29,MATLAB代码实现为:norm(a,1);1.2 向量的2范数向量的2范数即:向量的每个元素的平方和再开平方根,上述a的2范数结果就是:15,MATLAB代码实现为:norm(a,2);1.3 向量的无穷范数1.向量的负无穷范数即:向量的所有元素的绝对值中最小的:上述向量a的负无穷范数结果就是:5,...原创 2018-05-13 23:45:54 · 334 阅读 · 0 评论 -
深度学习(一)深度学习概述
链接:http://mooc.study.163.com/learn/2001281002?tid=2001392029#/learn/content?type=detail&id=2001702012numpy:广播复制和展开激活函数:激活函数Sigmoid求导:tanh 求导ReLu and leaky Relu反向传播正反向传播:偏差和方差...原创 2018-04-29 10:56:50 · 4449 阅读 · 0 评论 -
python数据科学基础和吴恩达作业补缺补漏(二)
1-梯度下降法在机器学习中的一个简单的优化方法是梯度下降(GD)。当你对每一步的所有mm例子采取梯度步骤时,它也被称为批量梯度下降。(Batch) Gradient Descent:X = data_inputY = labelsparameters = initialize_parameters(layers_dims)for i in range(0, num_iterations):...原创 2018-05-21 00:34:41 · 404 阅读 · 0 评论 -
深度学习(八)CNN卷积神经网络基础
转自链接:https://blog.csdn.net/red_stone1/article/details/78651063《Convolutional Neural Networks》是Andrw Ng深度学习专项课程中的第四门课。这门课主要介绍卷积神经网络(CNN)的基本概念、模型和具体应用。该门课共有4周课时,所以我将分成4次笔记来总结,这是第一节笔记。1. Computer转载 2018-05-07 20:20:01 · 2363 阅读 · 0 评论 -
深度学习(九)CNN-目标检测
转载自https://blog.csdn.net/red_stone1/article/details/79028058《Convolutional Neural Networks》是Andrw Ng深度学习专项课程中的第四门课。这门课主要介绍卷积神经网络(CNN)的基本概念、模型和具体应用。该门课共有4周课时,所以我将分成4次笔记来总结,这是第3节笔记,主要介绍目标检测。1. Object Lo...转载 2018-05-07 21:51:34 · 1310 阅读 · 1 评论 -
深度学习(十)人脸识别与神经风格迁移
转载自:https://blog.csdn.net/red_stone1/article/details/79055467《Convolutional Neural Networks》是Andrw Ng深度学习专项课程中的第四门课。这门课主要介绍卷积神经网络(CNN)的基本概念、模型和具体应用。该门课共有4周课时,所以我将分成4次笔记来总结,这是第4节笔记,主要介绍卷积神经网络的特殊应用:人脸识别...转载 2018-05-07 22:10:38 · 1622 阅读 · 0 评论 -
深度学习框架Tensorflow学习笔记(一)
1.需要在会话中完成op2.初始化操作init = tf.global_variables_initializer()3.fetch run多个opprint(sess.run([mul,add]))4.placeholder + feed_dict input1 = tf.placeholder(tf.float32,shape=[1,2])input2 = tf.placeholder(tf...原创 2018-05-27 00:15:38 · 465 阅读 · 0 评论 -
深度学习框架Tensorflow学习笔记(二)
交叉熵权值和偏置值的调整与 无关,另外,梯度公式中的 表示输出值与实 际值的误差。所以当误差越大时,梯度就越大,参数w和b的调整就越快,训练的速度也就越快。 如果输出神经元是线性的,那么二次代价函数就是一种合适的选择。如果输出神经元是S型函数, 那么比较适合用交叉熵代价函数初始化权值:tf.truncated_normal(shape=[10,10], mean=0, stddev=1)一般效...原创 2018-05-27 20:03:44 · 437 阅读 · 0 评论 -
梯度下降优化方法综述(Optimizer)
参考链接:https://blog.csdn.net/heyongluoyao8/article/details/52478715Tensorflow原创 2018-05-27 20:16:56 · 1253 阅读 · 0 评论 -
Tensorflow入门到实战一(变量与常量/placeholder)
变量与常量import tensorflow as tf ## 定义#定义一个变量var =tf.Variable(0,name="myvar")#定义一个常量con_var=tf.constant(1)#定义一个加法new_var=tf.add(var,con_var)## 开始计算#初始化,在初始化之前是变量是没有值的init =tf.global_vari...原创 2019-02-26 15:12:03 · 381 阅读 · 0 评论