自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 tensorflow训练过程日志监控

tf.logging.set_verbosity(tf.logging.INFO)当设置INFO级别后,tf.contrib.learn会自动每百步后输出损失度量数据到标准输出。

2019-07-18 16:54:11 685

转载 tf.gfile.FastGFile

tf.gfile.FastGFile(path,decodestyle)函数功能:实现对图片的读取。函数参数:(1)path:图片所在路径 (2)decodestyle:图片的解码方式。(‘r’:UTF-8编码; ‘rb’:非UTF-8编码)import matplotlib.pyplot as plt import tensorflow as tf #tf.gfileGFile()函...

2019-07-10 09:45:40 361

原创 笔试题-饥饿的小易

一道网易的笔试题,很有意思,需要通过观察之后利用数学方法解出。题目描述:小易总是感觉饥饿,所以作为章鱼的小易经常出去寻找贝壳吃。最开始小易在一个初始位置x_0。对于小易所处的当前位置x,他只能通过神秘的力量移动到 4 * x + 3或者8 * x + 7。因为使用神秘力量要耗费太多体力,所以它只能使用神秘力量最多100,000次。贝壳总生长在能被1,000,000,007整除的位置(比如:位置...

2019-04-02 00:39:54 164

原创 剑指offer-9-用两个栈实现队列

题目:用两个栈实现队列题目描述:用两个栈来实现一个队列,完成队列的Push和Pop操作。 队列中的元素为int类型。解题思路:有两个栈stackA,stackB,A为入栈,B为出栈的。入栈时,直接进入A即可,出栈时,先判断B中是否有元素,如果没有肯定不能pop(),应将A中所有元素倒压在B里面,再pop()最上面(后面)的元素,如果有,直接pop()就可以了。两个栈各自先进后出,在一起又实现了...

2019-03-21 11:32:45 92

原创 leetcode-搜索插入位置-二分查找

顺序查找:class Solution(object): def searchInsert(self, nums, target): """ :type nums: List[int] :type target: int :rtype: int """ l = len(nums) ...

2019-03-20 15:35:46 142

转载 关于Deep learning和NLP实战应用项目

GitHub NLP项目:自然语言处理项目的相关干货整理自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域。本文作者为自然语言处理NLP初学者整理了一份庞大的自然语言处理项目领域的概览,包括了很多人工智能应用程序。选取的参考文献与资料都侧重于最新的深度学习研究成果。这些自然语言处理项目资源能为想要深入钻研一个自然...

2019-02-28 15:48:22 732

转载 深度学习面试题集锦【2】

算法与数据结构二叉树二叉搜索树如何删除某个节点,先说思路后写代码 (今日头条)。二叉树之字形层次遍历,(正反正反)。链表一个链表,如何依次输出第一个,倒数第一个,第二个,倒数第二个(今日头条)。原址:变换为奇数在前 偶数在后,相对顺序不变。链表求和。查找给一个 float 数,如何求算术平方根.(今日头条)哈希要实现一个哈希表应该怎么做(根据要哈...

2019-02-28 15:30:37 531

转载 深度学习面试题集锦【1】

【转自机器之心】去年上海科技大学 AI 实验室开源了一份深度学习面试题集锦,它从数学基础、经典机器学习算法、深度学习算法以及编程语言等方面提供了众多面试题。此外,这一个项目是作者在准备 2018 年春招实习过程中的总结,内容以计算机书籍的学习笔记为主,在整理重点知识的同时会尽量保证知识的系统性。项目地址:https://github.com/ShanghaiTechAIClub/DLInter...

2019-02-28 15:24:35 1547

原创 机器学习中的隐变量

在看《统计学系方法》的EM算法部分时,书中写道EM算法用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。什么是隐变量呢?让我们先简单的说一下,我们估计算法在做的一些事情,我们要做的其实就是估算出概率模型的参数,概率模型是什么呢?你可以简单把它理解成一个分布,甚至说可以把它理解成一个函数,我们的估计算法就是为了求解出这些函数的参数而存在的。这边借用知乎上的一个例子,希望能够解释清楚隐...

2019-02-28 14:33:51 5423 3

转载 机器学习中正则化项L1和L2的直观理解

正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫...

2019-02-27 09:36:19 157

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除