This is bill的专属博客

仅做学习研究用途,转载如果未贴地址,原作者看到可以联系我,我会将您的地址附上...

排序:
默认
按更新时间
按访问量

Linear Algebra 笔记

0x00 文章来由 好久没写原创文章了 0x01 Vectors, Matrices and their Products 从row来理解 可以看成每行都是一个点积,这样得到的结果可以成为一个向量 从column来理解 可以看成A是多个向...

2018-09-11 20:39:32

阅读数:51

评论数:2

wh常用命令

0x01 查看显卡 spci | grep -i vga 0x02 查看系统版本 cat /proc/version uname -a 0x03 查看NVIDIA 显卡 nvidia-smi 0x04 查看CUDA版本 nvcc -V 0x05 不断刷新一个命令...

2018-04-03 09:14:07

阅读数:367

评论数:0

Stanford CS231n Notes

一、文章来由原博客来自:http://blog.csdn.net/scythe666/article/details/75265338 因为篇幅太长,不宜阅读与编辑,分篇如下二、cs231n 课程第二讲:数据驱动的图像分类方式:K最近邻与线性分类器(1)经典图像识别算法不可扩展,data-dri...

2017-08-14 14:31:57

阅读数:1253

评论数:0

ML Lecture Notes

一、文章来由原博客来自:http://blog.csdn.net/scythe666/article/details/75265338 因为篇幅太长,不宜阅读与编辑,分篇如下二、《一天搞懂深度学习》300多页的PPT,台大教授写的好文章。 对应的视频地址1、Lecture I: Intro...

2017-08-14 14:25:30

阅读数:807

评论数:0

ML超级大火锅

0x00 文章来由DL问题不断整理0x01 卷积层学习卷积核?该问题来自于知乎: https://www.zhihu.com/question/39022858,里面说到0x02 loss很低,但是accuracy一直在50%左右一般是什么原因,1500张图片做train最可能 overfitti...

2017-08-06 10:32:00

阅读数:2535

评论数:0

要怎样努力,才能成为很厉害的人?

博主是一个热血青年吧,一直信奉的也是一切杀不死我的,只会令我更坚强~~最近做出了一个看似很疯狂,但是完全足以改变一生的决定。闲余时间逛知乎,看了一个很有共鸣的答案。也许有些人觉得有些决定很疯狂不能实现,我只想说那是你太现实而无法实现梦想找的借口。转自:https://www.zhihu.com/q...

2016-11-07 05:57:49

阅读数:1811

评论数:11

Java基础总结(内部版)

Java基础总结  琥魄 浏览 4 2016-07-28 10:45:38 发表于: 网商银行技术博客 >> Java技术 编辑 删除 Java核心技术Java  修改标签  标签历史 阿里实习在内部博客发的博客, 排版较CSDN明显好看很多 ...

2016-07-28 10:53:59

阅读数:3318

评论数:6

Java超级大火锅

实习换语言到Java,基础很多需要整理,专门为Java开一个大火锅~~1、事务 事务指的是逻辑上的一组操作,这组操作要么全部成功,要么全部失败。 事务的4大特性:ACID,指数据库事务正确执行的四个基本要素的缩写。包含:原子性(Atomicity)、一致性(Consistency)、隔离性(I...

2016-07-02 10:56:18

阅读数:3820

评论数:2

C/C++超级大火锅

写在前面最近接触到一些基础知识,平时遇到的编程困惑也加入其中。准确说是写给自己看的,但是如果大家可以借鉴就更好。多数是c/c++,也有少量java基础和其他知识,貌似应该叫《计算机基础问题汇总》比较好。不断更新~~一、new 跟 malloc 的区别是什么?1.malloc/free是C/C++语...

2016-03-15 17:06:46

阅读数:4285

评论数:3

楼天城楼教主的acm心路历程(作为励志用)

转载的文章,好好加油!说不定什么时候我也可以说:“这题我虽然不会,但是AC还是可以的”。。。 利用假期空闲之时,将这几年GCJ,ACM,TopCoder 参加的一些重要比赛作个 回顾。昨天是GCJ2006 的回忆,今天时间上更早一些吧,我现在还清晰记得3 年 前,我刚刚参加ACM...

2013-10-22 17:51:27

阅读数:6051

评论数:0

马尔科夫奖赏过程

0 前言 本文写作目的:尽量通俗讲解强化学习知识,使读者不会被各种概念吓倒!本文是第一篇,但是最关键的一篇是第二篇马尔科夫决策过程(Markov Decision Process,MDP),只有充分理解了马尔科夫决策过程,才能游刃有余的学习后续知识,所以希望读者能够将MDP深入理解后再去学习后续...

2018-10-17 14:40:30

阅读数:6

评论数:0

马尔科夫决策过程

在强化学习中,马尔科夫决策过程(Markov decision process, MDP)是对完全可观测的环境进行描述的,也就是说观测到的状态内容完整地决定了决策的需要的特征。几乎所有的强化学习问题都可以转化为MDP。本讲是理解强化学习问题的理论基础。   马尔科夫过程 Markov Proc...

2018-10-17 14:38:26

阅读数:17

评论数:0

[work] 马尔可夫决策过程MDP

增强学习(二)----- 马尔可夫决策过程MDP 1. 马尔可夫模型的几类子模型 大家应该还记得马尔科夫链(Markov Chain),了解机器学习的也都知道隐马尔可夫模型(Hidden Markov Model,HMM)。它们具有的一个共同性质就是马尔可夫性(无后效性),也就是指系统的下个状...

2018-10-17 14:38:03

阅读数:7

评论数:0

Semantic Segmentation与Instance Segmentation的区别

盗图gluon, 很不错的说明

2018-10-17 13:02:12

阅读数:6

评论数:0

[work] Adam优化器

基于随机梯度下降(SGD)的优化算法在科研和工程的很多领域里都是极其核心的。很多理论或工程问题都可以转化为对目标函数进行最小化的数学问题。 按吴恩达老师所说的,梯度下降(Gradient Descent)就好比一个人想从高山上奔跑到山谷最低点,用最快的方式(steepest)奔向最低的位置(mi...

2018-10-16 20:29:34

阅读数:5

评论数:0

伯努利分布、二项分布、几何分布、超几何分布、泊松分布

导语        对于任何一个学习概率论的童鞋来说,各种分布都是很头痛的一件事情,本篇主要讨论的是离散型随机变量. 伯努利分布        伯努利分布就是我们常见的0-1分布,即它的随机变量只取0或者1,各自的频率分别取1−p1−p和pp,当x=0x=0或者x=1x=1时,我们数学定义为: ...

2018-10-16 14:19:08

阅读数:9

评论数:0

ResNeXt算法详解

论文:Aggregated Residual Transformations for Deep Neural Networks 论文链接:https://arxiv.org/abs/1611.05431 PyTorch代码:https://github.com/miraclewkf/ResNeXt...

2018-10-16 14:16:39

阅读数:3

评论数:0

Mxnet训练自己的数据集并测试

使用Mxnet训练图片分类类器 1、准备数据: (1)建立一个根目录然后,再为每一个类别的图片建立一个子文件夹,把每一类图片放入对应的子文件夹即可。--root: ----class1 ----class2 ...... ----classn 首先生成训练集和测试集的list,命令如下: Py...

2018-10-15 14:36:51

阅读数:5

评论数:0

mxnet 训练 MNIST

import numpy as np import mxnet as mx import logging logging.getLogger().setLevel(logging.DEBUG) batch_size = 100 mnist = mx.test_utils.get_mnist()...

2018-10-15 14:33:12

阅读数:5

评论数:0

Mxnet 训练自己的数据

Prepare the input data Because the input data’s formt of MXNet is rec,so we must turn the image into the .rec format,as folow: First, we prepare som...

2018-10-15 14:30:30

阅读数:2

评论数:0

提示
确定要删除当前文章?
取消 删除